- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2011
Abschlussarbeiten 2011
Prädiktion von GNSS-Stallitenuhren
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2010
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Die vorliegende Arbeit beschäftigt sich mit der Charakterisierung und Ρrädiktiοn von GNSS-Satellitenuhren.
Für die Entwicklung eines Algorithmus zur Vorausberechnung von Uhrkοrrekturdaten ist das Studium des Verhaltens der unterschiedlichen Uhrentypen der GNSS-Satelliten notwendig. Dies wird auf Basis der vom IGS und dessen ACs bereitgestellten Ultra-Rapid-Uhrkorrekturdaten durchgeführt. Als Referenz dienen dabei die IGS-Rapid-Daten. Für ein dreistündiges Prädiktionsintervall erreichen alle ACs annähernd dieselbe Genauigkeit mit einem mittleren Fehler im Bereich von 0,1 bis 0,4 ns. Für längere Prädiktionszeiträume beginnen die Ergebnisse leicht von einander abzuweichen. Für ein 12-stündiges Intervall erreichen die Differenzen einen Bereich von knapp unter 10 ns (GFZ, CODE) bis zu einigen 10er ns.
Es zeigt sich, dass der Verlauf der Abweichungen der Rubidium-Satellitenuhren von GPS-Zeit mit einem einfachen quadratischen Polynom beschreibbar ist. Cäsiumuhren jedoch zeigen eine 12-stündige Periode mit einer Amplitude von bis zu 6 ns. Ein Vergleich des von der Satellitenbahnebene und dem Ortsvektor zur Sonne aufgespannten Raumwinkels mit den Amplituden zeigt, dass hier eine eindeutige Korrelation vorliegt. Es wird daraus geschlossen, dass die vorliegenden Schwankungen der Cäsiumuhren auf Temρeratυränderungen zurückzuführen sind.
Aufgrund der 12-stündigen Periode der Cäsiumuhrkorrekturdaten wird als Prädiktionsmodell ein quadratisches Polynom mit einer zusätzlichen Sinusschwingung angesetzt. Die drei Parameter des Polynoms sowie die Amplitude und Phasenverschiebung des periodischen Terms werden in einem Ausgleich mit geschätzt. Als Eingangsdaten dient dem Prädiktionsprogramm GNSS-VC/static eine zweitägige Zeitreihe der vom IGS öffentlich verfügbaren Ultra-Rapid-Produkte. Dabei werden jeweils die ersten 24 Stunden dieser Daten verwendet. Mit den ermittelten Parametern werden Uhrkorrekturen für unterschiedlich lange Intervalle prädiziert. Die Ergebnisse zeigen, dass der mittlere Fehler der prädizierten Korrekturen für Satelliten mit aktiven Rubidiumuhren bis zu einem Prädiktionsintervall von 6 Stunden unter 1-1,5 ns liegt. Für das 12-stündige Intervall steigt er auf ca. 2-3 ns an. Das entspricht einem Distanzfehler von ca. 60-90 cm. Weiters wird gezeigt, dass bei der Erweiterung des quadratischen Polynoms um den periodischen Term auch die Rubidiumuhren eine geringfügig höhere Genauigkeit aufweisen als ohne selbigen. Ein Vergleich mit den Ultra-Rapid-Uhrkorrekturdaten der einzelnen ACs des IGS zeigt, dass die mit dem Programm GNSS-VC/static berechneten Uhrkorrekturen eine sehr gute Qualität aufweisen.
Der Einsatz von GNSS-VC/static fix GLONASS-Satellitenuhren erweist sich dagegen als problematisch. Die einzelnen Uhren zeigen ein sehr unterschiedliches Verhalten und es finden sich Sprünge und Datenlücken in den Zeitserien über den Verlauf von nur wenigen Stunden. Eine Prädiktion von GLONASS-Uhren ist deshalb zum Zeitpunkt der Arbeit nicht Ziel führend.
Abhängig vom um drei Stunden verzögerten Erscheinen der Ultra-Rapid-Uhrkorrekturen weisen die Ergebnisse der Parameterbestimmung aus GNSS-VC/static die gleiche Verspätung auf. Ihr "Prädiktionsnullzeitρunkt" ist beim Erscheinen also bereits drei Stunden alt. Die Entwicklung des Programms GNSS-VC/kalman zielt darauf ab, die Parameter des Prädiktionsmodells in Quasi-Echtzeit zu bestimmen. Da der Prädiktionszeitraum auf sechs Stunden reduziert wird, wird als Modell nur noch ein rein quadratisches Polynom ohne zusätzlichen periodischen Term verwendet. Als Eingangsdaten dienen Uhrkorrekturdaten aus dem Programm RTR-Control, welches ebenfalls an der TU Wien entwickelt wurde [Opitz, 2010]. Diese Daten werden im Minutentakt berechnet und an einem Server des Instituts zur Verfügung gestellt. Nach der "Einschwingzeit" des Kalman-Filter-Algorithmus (ca. 30 Minuten) liegt der mittlere Fehler der mit dem Kalman-Filter prädizierten Uhrkorrekturen für einen großen Teil der Satellitenuhren unter 2 ns.
Die vorliegende Arbeit beschäftigt sich mit der Charakterisierung und Ρrädiktiοn von GNSS-Satellitenuhren.
Für die Entwicklung eines Algorithmus zur Vorausberechnung von Uhrkοrrekturdaten ist das Studium des Verhaltens der unterschiedlichen Uhrentypen der GNSS-Satelliten notwendig. Dies wird auf Basis der vom IGS und dessen ACs bereitgestellten Ultra-Rapid-Uhrkorrekturdaten durchgeführt. Als Referenz dienen dabei die IGS-Rapid-Daten. Für ein dreistündiges Prädiktionsintervall erreichen alle ACs annähernd dieselbe Genauigkeit mit einem mittleren Fehler im Bereich von 0,1 bis 0,4 ns. Für längere Prädiktionszeiträume beginnen die Ergebnisse leicht von einander abzuweichen. Für ein 12-stündiges Intervall erreichen die Differenzen einen Bereich von knapp unter 10 ns (GFZ, CODE) bis zu einigen 10er ns.
Es zeigt sich, dass der Verlauf der Abweichungen der Rubidium-Satellitenuhren von GPS-Zeit mit einem einfachen quadratischen Polynom beschreibbar ist. Cäsiumuhren jedoch zeigen eine 12-stündige Periode mit einer Amplitude von bis zu 6 ns. Ein Vergleich des von der Satellitenbahnebene und dem Ortsvektor zur Sonne aufgespannten Raumwinkels mit den Amplituden zeigt, dass hier eine eindeutige Korrelation vorliegt. Es wird daraus geschlossen, dass die vorliegenden Schwankungen der Cäsiumuhren auf Temρeratυränderungen zurückzuführen sind.
Aufgrund der 12-stündigen Periode der Cäsiumuhrkorrekturdaten wird als Prädiktionsmodell ein quadratisches Polynom mit einer zusätzlichen Sinusschwingung angesetzt. Die drei Parameter des Polynoms sowie die Amplitude und Phasenverschiebung des periodischen Terms werden in einem Ausgleich mit geschätzt. Als Eingangsdaten dient dem Prädiktionsprogramm GNSS-VC/static eine zweitägige Zeitreihe der vom IGS öffentlich verfügbaren Ultra-Rapid-Produkte. Dabei werden jeweils die ersten 24 Stunden dieser Daten verwendet. Mit den ermittelten Parametern werden Uhrkorrekturen für unterschiedlich lange Intervalle prädiziert. Die Ergebnisse zeigen, dass der mittlere Fehler der prädizierten Korrekturen für Satelliten mit aktiven Rubidiumuhren bis zu einem Prädiktionsintervall von 6 Stunden unter 1-1,5 ns liegt. Für das 12-stündige Intervall steigt er auf ca. 2-3 ns an. Das entspricht einem Distanzfehler von ca. 60-90 cm. Weiters wird gezeigt, dass bei der Erweiterung des quadratischen Polynoms um den periodischen Term auch die Rubidiumuhren eine geringfügig höhere Genauigkeit aufweisen als ohne selbigen. Ein Vergleich mit den Ultra-Rapid-Uhrkorrekturdaten der einzelnen ACs des IGS zeigt, dass die mit dem Programm GNSS-VC/static berechneten Uhrkorrekturen eine sehr gute Qualität aufweisen.
Der Einsatz von GNSS-VC/static fix GLONASS-Satellitenuhren erweist sich dagegen als problematisch. Die einzelnen Uhren zeigen ein sehr unterschiedliches Verhalten und es finden sich Sprünge und Datenlücken in den Zeitserien über den Verlauf von nur wenigen Stunden. Eine Prädiktion von GLONASS-Uhren ist deshalb zum Zeitpunkt der Arbeit nicht Ziel führend.
Abhängig vom um drei Stunden verzögerten Erscheinen der Ultra-Rapid-Uhrkorrekturen weisen die Ergebnisse der Parameterbestimmung aus GNSS-VC/static die gleiche Verspätung auf. Ihr "Prädiktionsnullzeitρunkt" ist beim Erscheinen also bereits drei Stunden alt. Die Entwicklung des Programms GNSS-VC/kalman zielt darauf ab, die Parameter des Prädiktionsmodells in Quasi-Echtzeit zu bestimmen. Da der Prädiktionszeitraum auf sechs Stunden reduziert wird, wird als Modell nur noch ein rein quadratisches Polynom ohne zusätzlichen periodischen Term verwendet. Als Eingangsdaten dienen Uhrkorrekturdaten aus dem Programm RTR-Control, welches ebenfalls an der TU Wien entwickelt wurde [Opitz, 2010]. Diese Daten werden im Minutentakt berechnet und an einem Server des Instituts zur Verfügung gestellt. Nach der "Einschwingzeit" des Kalman-Filter-Algorithmus (ca. 30 Minuten) liegt der mittlere Fehler der mit dem Kalman-Filter prädizierten Uhrkorrekturen für einen großen Teil der Satellitenuhren unter 2 ns.
AHD: Alternate hierarchical Decomposition
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2011
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
The thesis shows that the separation of metric and topological processing for GIS geometry is possible and opens the doors for better geometric data structures. The separation leads to the novel combination of homogeneous coordinates with big integers and convex polytopes.
Firstly, the research shows that a consistent metric processing for geometry of straight lines is possible with homogeneous coordinates stored as arbitrary precision integers (so called big integers). Secondly, the geometric model called Alternate Hierarchical Decomposition (AHD), is proposed that is based on the convex decomposition of arbitrary (with or without holes) regions into their convex components. The convex components are stored in a hierarchical tree data structure, called convex hull tree (CHT), each node of which contains a convex hull. A region is then composed by alternately subtracting and adding children convex hulls in lower levels from the convex hull at the current parent node. The solution fulfills following requirements:
The thesis shows that the separation of metric and topological processing for GIS geometry is possible and opens the doors for better geometric data structures. The separation leads to the novel combination of homogeneous coordinates with big integers and convex polytopes.
Firstly, the research shows that a consistent metric processing for geometry of straight lines is possible with homogeneous coordinates stored as arbitrary precision integers (so called big integers). Secondly, the geometric model called Alternate Hierarchical Decomposition (AHD), is proposed that is based on the convex decomposition of arbitrary (with or without holes) regions into their convex components. The convex components are stored in a hierarchical tree data structure, called convex hull tree (CHT), each node of which contains a convex hull. A region is then composed by alternately subtracting and adding children convex hulls in lower levels from the convex hull at the current parent node. The solution fulfills following requirements:
- Provides robustness in geometric computations by using arbitrary precision big integers.
- Supports fast Boolean operations like intersection, union and symmetric difference etc.
- Supports level of detail based processing.
- Supports dimension independence, i.e. AHD is extendable to n-dimensions (n >1).
Precise point positioning (PPP) - an alternative technique for ground based GNSS troposphere monitoring
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2011
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Electromagnetic signals emitted by the Global Navigation Satellite System (GNSS) satellites are time delayed when passing through the atmosphere. Based on this signal delay, e.g. the humidity distribution within the troposphere can be determined. It has already been shown that the delivery of the Zenith Wet Delays (ZWD) derived from a network solution with hourly resolution and an accuracy of 1 mm in precipitable water is achievable. In the case of very large networks along with an increased number of observations and computational demands, an alternative processing technique has to be applied - Precise Point Positioning (PPP). PPP is a technique that uses un-differenced single- or dual-frequency pseudorange and carrier phase observations of a single receiver along with precise orbit and clocks products to achieve a cm-level positioning precision. The advantage of this zero difference technique is that no regional correlations will be introduced as well as no reference station data is explicitly required for data processing. On the other hand hardware biases (both from the satellite and the receiver), which cancel when forming double-difference observations in a network approach remain, and have to be accounted for carefully. Furthermore, the necessary correction models have to be made available close to real-time by organizations like IGS or by regional reference station providers.
In this thesis it is shown how the atmospheric precipitable water content derived from GNSS data can be assimilated within an operational meteorological now-casting system and how PPP results compare to the network solution. Passing weather fronts can be analyzed much better by considering the information provided by GNSS derived tropospheric wet delays because this data is directly influenced by changes in humidity in the free atmosphere, whereas the data at the meteorological ground stations react to these changes with a considerable time delay. This allows to forecast, e.g. heavy rainfall potentially causing local floodings more reliable and to narrow down the affected region. It is to be expected that the accuracy of the PPP ZWD estimates is worse due to several effects (satellite clock errors, biases, no ambiguity resolution), but independence from the reference station data will significantly shorten the latency of the results (few min), and provide the regional/national weather service to enhance the prognosis in the numerical forecast model.
Electromagnetic signals emitted by the Global Navigation Satellite System (GNSS) satellites are time delayed when passing through the atmosphere. Based on this signal delay, e.g. the humidity distribution within the troposphere can be determined. It has already been shown that the delivery of the Zenith Wet Delays (ZWD) derived from a network solution with hourly resolution and an accuracy of 1 mm in precipitable water is achievable. In the case of very large networks along with an increased number of observations and computational demands, an alternative processing technique has to be applied - Precise Point Positioning (PPP). PPP is a technique that uses un-differenced single- or dual-frequency pseudorange and carrier phase observations of a single receiver along with precise orbit and clocks products to achieve a cm-level positioning precision. The advantage of this zero difference technique is that no regional correlations will be introduced as well as no reference station data is explicitly required for data processing. On the other hand hardware biases (both from the satellite and the receiver), which cancel when forming double-difference observations in a network approach remain, and have to be accounted for carefully. Furthermore, the necessary correction models have to be made available close to real-time by organizations like IGS or by regional reference station providers.
In this thesis it is shown how the atmospheric precipitable water content derived from GNSS data can be assimilated within an operational meteorological now-casting system and how PPP results compare to the network solution. Passing weather fronts can be analyzed much better by considering the information provided by GNSS derived tropospheric wet delays because this data is directly influenced by changes in humidity in the free atmosphere, whereas the data at the meteorological ground stations react to these changes with a considerable time delay. This allows to forecast, e.g. heavy rainfall potentially causing local floodings more reliable and to narrow down the affected region. It is to be expected that the accuracy of the PPP ZWD estimates is worse due to several effects (satellite clock errors, biases, no ambiguity resolution), but independence from the reference station data will significantly shorten the latency of the results (few min), and provide the regional/national weather service to enhance the prognosis in the numerical forecast model.
A formal approach to implement dimension-independent spatial analyses
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2011
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
Extension of 2D spatial analyses - i.e., a set of operations applied on a spatial data set - to higher dimensions, e.g., 3D and temporal, is one of the requirements to handle real world phenomena in GIS. The current approach is to design a technical solution to extend a certain 2D spatial analysis to a new multi-dimensional space with the least increase in complexity and speed. This technical approach has resulted in developments that cannot be generalized. The result of following such an approach in the software development stage is recording each spatial analysis, separately, for each dimension. Therefore, the code for a, say, general 2D/3D static and moving objects supporting GIS is nearly four times the current code size, offering four variants: static 2D, moving 2D, static 3D, and moving 3D. The complexity of such a growth of code written in one of the currently popular programming languages, say, C++ is hard to manage, resulting in numerous bugs.
This thesis investigates spatial analyses based on their dimension independent characteristics (i.e., independent of the objects to which the analyses are applied), toward achieving a general solution. It intends to provide an integrated framework for spatial analyses of different multi-dimensional spaces a GIS should support. This framework will be independent of the objects to which the analyses are applied and spatial analyses are formally defined by combinations of the elements of this integrated framework.
To implement this approach, spatial analyses are formally expressed hierarchically where each analysis is defined as a combination of simpler ones. These definitions are independent of dimension and the hierarchy ends in a set of primary operations, which are not further decomposed. Α set of required data types are also identified. Having implemented the dimensionally independent data types and operations, they all will be extended to a specific space (e.g., moving points) by applying the mappings between defined the spaces.
The required abstraction of the proposed approach is the subject of algebra that ignores those properties of operations that depend on the objects they are applied to. The desired spaces are structurally equivalent, so they are described by the same algebra. Having implemented the required data types and operations, their extension to a specific space is viable by applying the (structure preserving) mapping.
The proposed approach has been evaluated through implementation of Delaunay triangulation for 2D and 3D static and moving points in the functional programming language Haskell and their efficiency has been evaluated. The implementations were used in two applications, i.e., convex decomposition of polytops and optimum placement of a sensor network based on the moving Voronoi diagram, in order to show how the proposed approach can be practically used. The achieved results certify the hypothesis of the research says that "studying spatial analyses based on their dimension independent characteristics leads to a consistent solution toward implementation of a multi-dimensional GIS".
Complexity and speed are factors used to evaluate the performance of an extension technique in current research. However, the aim here is to avoid recoding each spatial analysis for each dimension. Thus, the main concern of this research is on the mathematical validation of the conceptual framework and investigation of its implementation issues. Nevertheless, the results show that the proposed approach does not affect the big Ο complexity and speed for applying the spatial analyses on objects of higher dimensions.
Extension of 2D spatial analyses - i.e., a set of operations applied on a spatial data set - to higher dimensions, e.g., 3D and temporal, is one of the requirements to handle real world phenomena in GIS. The current approach is to design a technical solution to extend a certain 2D spatial analysis to a new multi-dimensional space with the least increase in complexity and speed. This technical approach has resulted in developments that cannot be generalized. The result of following such an approach in the software development stage is recording each spatial analysis, separately, for each dimension. Therefore, the code for a, say, general 2D/3D static and moving objects supporting GIS is nearly four times the current code size, offering four variants: static 2D, moving 2D, static 3D, and moving 3D. The complexity of such a growth of code written in one of the currently popular programming languages, say, C++ is hard to manage, resulting in numerous bugs.
This thesis investigates spatial analyses based on their dimension independent characteristics (i.e., independent of the objects to which the analyses are applied), toward achieving a general solution. It intends to provide an integrated framework for spatial analyses of different multi-dimensional spaces a GIS should support. This framework will be independent of the objects to which the analyses are applied and spatial analyses are formally defined by combinations of the elements of this integrated framework.
To implement this approach, spatial analyses are formally expressed hierarchically where each analysis is defined as a combination of simpler ones. These definitions are independent of dimension and the hierarchy ends in a set of primary operations, which are not further decomposed. Α set of required data types are also identified. Having implemented the dimensionally independent data types and operations, they all will be extended to a specific space (e.g., moving points) by applying the mappings between defined the spaces.
The required abstraction of the proposed approach is the subject of algebra that ignores those properties of operations that depend on the objects they are applied to. The desired spaces are structurally equivalent, so they are described by the same algebra. Having implemented the required data types and operations, their extension to a specific space is viable by applying the (structure preserving) mapping.
The proposed approach has been evaluated through implementation of Delaunay triangulation for 2D and 3D static and moving points in the functional programming language Haskell and their efficiency has been evaluated. The implementations were used in two applications, i.e., convex decomposition of polytops and optimum placement of a sensor network based on the moving Voronoi diagram, in order to show how the proposed approach can be practically used. The achieved results certify the hypothesis of the research says that "studying spatial analyses based on their dimension independent characteristics leads to a consistent solution toward implementation of a multi-dimensional GIS".
Complexity and speed are factors used to evaluate the performance of an extension technique in current research. However, the aim here is to avoid recoding each spatial analysis for each dimension. Thus, the main concern of this research is on the mathematical validation of the conceptual framework and investigation of its implementation issues. Nevertheless, the results show that the proposed approach does not affect the big Ο complexity and speed for applying the spatial analyses on objects of higher dimensions.
Kognitiv-ergonomische Sprachanweisungen als elektronische Navigationsunterstützung für Fußgängerinnen und Fußgänger
Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, Technische Universität Wien, 2011
Begutachter: Univ. Prof. Mag. Dr. Georg Gartner
Begutachter: Univ. Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Sich von einem Ort zu einem anderen zu bewegen zählt zu einem der fundamentalsten Probleme von Lebewesen. Als Fußgängerinnen und Fußgänger sind auch Menschen immer wieder mit der Navigation in ihnen unbekannten Umgebungen konfrontiert. Elektronische Navigationshilfen ermöglichen, fehlendes räumliches Wissen so zu ergänzen, dass die richtigen Entscheidungen getroffen werden können. Eine wiederkehrende Frage ist, wie Navigationsinformationen von solchen Systemen repräsentiert und an navigierende Personen kommuniziert werden sollen.
In dieser Dissertation wird das Medium Sprache in der elektronischen Navigationsunterstützung für Fußgängerinnen und Fußgänger in urbanen Umgehungen untersucht. Während die meisten bisherigen Arbeiten mehrere Ιnfοrmatiοnskanäle kombinieren, geht diese Arbeit ausschließlich der Frage nach, wie natürlich sprachliche Anweisungen zu gestalten sind, sodass eine effektive Navigationsunterstützung für Fußgängerinnen und Fußgänger entlang von Routen in unbekannten Umgebungen gelingen kann. Die Arbeit gliedert sich in vier aufeinander aufbauende Teile: (1) Empirische Datenerhebung, (2) Modellbildung, (3) Systementwurf und Informationsgenerierung und (4) empirische Evaluierung.
Der erste Teil der Arbeit beschreibt eine qualitative empirische Beobachtung, die zur Generierung von verbalen Beschreibungen von Entscheidungssituationen durchgeführt wurde. Die empirische Beobachtung wurde mit 20 Personen entlang von vier Testrouten in Wien und Salzburg durchgeführt. Aus den deutschsprachigen verbalen Beschreibungen wurden mit Hilfe der Methodik einer semantischen Inhaltsanalyse prototypische Bewegungsmuster extrahiert. Die prototypischen Bewegungsmuster setzen sich aus Bewegungsverben, räumlichen Relationen und räumlichen Referenzobjekten zusammen und beschreiben auf einer qualitativen Ebene, wie sich Fußgängerinnen und Fußgänger entlang von Routen bewegen können. Die Auswahl der prototypischen Muster erfolgte anhand der Häufigkeit ihrer Nennungen. Für die extrahierten Bewegungsverben, räumlichen Relationen und räumliche Referenzobjekte wurden Taxonomien zur semantischen Klassifikation erstellt. Räumliche Referenzobjekte werden nicht nur ontologisch, sondern auch Rollen-basiert hinsichtlich ihrer funktionalen Rolle in Bezug auf die Fußgängernavigation klassifiziert.
Der zweite Tell der Dissertation beschreibt die Formalisierung der prototypischen Bewegungsmuster von Fußgängerinnen und Fußgängern mit Hilfe eines qualitativ räumlichen Aktionsmodells (Qualitative Spatial Action Model - QSAM). Das Modell bildet ein semantisches Referenzsystem für die formale Beschreibung von qualitativen Navigationsaktionen. Ergänzend wird das Modell der Aktivitätsgraρhen als Erweiterung von Routengraphen für die Aktivitäten-basierte Modellierung von Navigationsumgebungen vorgeschlagen. Die Modellierung der Aktivitäten erfolgt durch die prototypischen Aktionsmuster des QSAM.
Der dritte Teil der Dissertation beschreibt ein Konzept für ein sprachbasiertes Fυβgängernavίgatiοnssystem, das Aktivitätsgraphen und prototypische Aktionsmuster verarbeiten kann. Die praktische Anwendbarkeit der beiden Modelle wird anhand zweier Testrouten in Salzburg überprüft. Ein Verfahren zur Übersetzung der prototypischen Aktionsmuster in natürlich sprachliche Anweisungen wird vorgeschlagen. Der Lösungsansatz definiert die formale Beschreibungssprache Qualitative Spatial Action Language (QSAL), mit der Navigationsaktivitäten entlang von Routen auf konzeptioneller Ebene beschrieben werden können. Mit Hilfe eines deterministischen Zustandsautomaten und textuellen Schablonen wird beispielhaft die Übersetzung der abstrakten Navigationsanweisungen in natürlich sprachliche deutsche Anweisungen gezeigt.
Im vierten Teil der Arbeit werden die generierten Navigationsanweisungen im Rahmen einer empirischen Feldstudie evaluiert. Die empirische Feldstudie wurde mit 20 Personen entlang der beiden Testrouten in Salzburg durchgeführt. In der Studie wurden zwei unterschiedliche Anweisungstypen verglichen: Kognitiv-ergonomische Anweisungen ergänzt durch metrische Informationen und kognitiv-ergonomische Anweisungen ergänzt durch qualitative Aktionsbeschreibungen mit räumlichen Referenzen. Sämtliche Aktionsbeschreibungen an Entscheidungspunkten entlang der beiden Testrouten wurden auf Basis der QSAL modelliert. Im Rahmen der Studie konnte gezeigt werden, dass eine sprachbasierte Navigation von Fußgängerinnen und Fußgängern in urbaner Umgebung mit minimaler Fehlerrate und in Standardgehzeit möglich ist. Für eine effektive Navigationsunterstützung sind insbesondere das positionsgenaue Abspielen der Anweisungen sowie kognitiv-ergonomische Richtungskonzepte verantwortlich. Aktionsbeschreibungen mit Referenzen auf räumliche Objekte erhöhen das Sicherheitsgefühl der Personen und können zu einer richtigen Entscheidung in schwierigen Entscheidungssituationen beitragen. Im Vergleich zu den Meterangaben wurden die Anweisungen aus den qualitativen Aktionsbeschreibungen von den Testpersonen in allen untersuchten qualitativen Kriterien wie Attraktivität oder Eindeutigkeit besser bewertet.
Die Dissertation schließt mit Empfehlungen für die Umsetzung von sprachbasierten elektronischen Assistenzsystemen für die Fußgängernavigation und einer kritischen Betrachtung der erzielten Ergebnisse.
Aufgrund der Untersuchung von deutschen Sprachanweisungen wurde die Dissertation in deutscher Sprache verfasst.
Sich von einem Ort zu einem anderen zu bewegen zählt zu einem der fundamentalsten Probleme von Lebewesen. Als Fußgängerinnen und Fußgänger sind auch Menschen immer wieder mit der Navigation in ihnen unbekannten Umgebungen konfrontiert. Elektronische Navigationshilfen ermöglichen, fehlendes räumliches Wissen so zu ergänzen, dass die richtigen Entscheidungen getroffen werden können. Eine wiederkehrende Frage ist, wie Navigationsinformationen von solchen Systemen repräsentiert und an navigierende Personen kommuniziert werden sollen.
In dieser Dissertation wird das Medium Sprache in der elektronischen Navigationsunterstützung für Fußgängerinnen und Fußgänger in urbanen Umgehungen untersucht. Während die meisten bisherigen Arbeiten mehrere Ιnfοrmatiοnskanäle kombinieren, geht diese Arbeit ausschließlich der Frage nach, wie natürlich sprachliche Anweisungen zu gestalten sind, sodass eine effektive Navigationsunterstützung für Fußgängerinnen und Fußgänger entlang von Routen in unbekannten Umgebungen gelingen kann. Die Arbeit gliedert sich in vier aufeinander aufbauende Teile: (1) Empirische Datenerhebung, (2) Modellbildung, (3) Systementwurf und Informationsgenerierung und (4) empirische Evaluierung.
Der erste Teil der Arbeit beschreibt eine qualitative empirische Beobachtung, die zur Generierung von verbalen Beschreibungen von Entscheidungssituationen durchgeführt wurde. Die empirische Beobachtung wurde mit 20 Personen entlang von vier Testrouten in Wien und Salzburg durchgeführt. Aus den deutschsprachigen verbalen Beschreibungen wurden mit Hilfe der Methodik einer semantischen Inhaltsanalyse prototypische Bewegungsmuster extrahiert. Die prototypischen Bewegungsmuster setzen sich aus Bewegungsverben, räumlichen Relationen und räumlichen Referenzobjekten zusammen und beschreiben auf einer qualitativen Ebene, wie sich Fußgängerinnen und Fußgänger entlang von Routen bewegen können. Die Auswahl der prototypischen Muster erfolgte anhand der Häufigkeit ihrer Nennungen. Für die extrahierten Bewegungsverben, räumlichen Relationen und räumliche Referenzobjekte wurden Taxonomien zur semantischen Klassifikation erstellt. Räumliche Referenzobjekte werden nicht nur ontologisch, sondern auch Rollen-basiert hinsichtlich ihrer funktionalen Rolle in Bezug auf die Fußgängernavigation klassifiziert.
Der zweite Tell der Dissertation beschreibt die Formalisierung der prototypischen Bewegungsmuster von Fußgängerinnen und Fußgängern mit Hilfe eines qualitativ räumlichen Aktionsmodells (Qualitative Spatial Action Model - QSAM). Das Modell bildet ein semantisches Referenzsystem für die formale Beschreibung von qualitativen Navigationsaktionen. Ergänzend wird das Modell der Aktivitätsgraρhen als Erweiterung von Routengraphen für die Aktivitäten-basierte Modellierung von Navigationsumgebungen vorgeschlagen. Die Modellierung der Aktivitäten erfolgt durch die prototypischen Aktionsmuster des QSAM.
Der dritte Teil der Dissertation beschreibt ein Konzept für ein sprachbasiertes Fυβgängernavίgatiοnssystem, das Aktivitätsgraphen und prototypische Aktionsmuster verarbeiten kann. Die praktische Anwendbarkeit der beiden Modelle wird anhand zweier Testrouten in Salzburg überprüft. Ein Verfahren zur Übersetzung der prototypischen Aktionsmuster in natürlich sprachliche Anweisungen wird vorgeschlagen. Der Lösungsansatz definiert die formale Beschreibungssprache Qualitative Spatial Action Language (QSAL), mit der Navigationsaktivitäten entlang von Routen auf konzeptioneller Ebene beschrieben werden können. Mit Hilfe eines deterministischen Zustandsautomaten und textuellen Schablonen wird beispielhaft die Übersetzung der abstrakten Navigationsanweisungen in natürlich sprachliche deutsche Anweisungen gezeigt.
Im vierten Teil der Arbeit werden die generierten Navigationsanweisungen im Rahmen einer empirischen Feldstudie evaluiert. Die empirische Feldstudie wurde mit 20 Personen entlang der beiden Testrouten in Salzburg durchgeführt. In der Studie wurden zwei unterschiedliche Anweisungstypen verglichen: Kognitiv-ergonomische Anweisungen ergänzt durch metrische Informationen und kognitiv-ergonomische Anweisungen ergänzt durch qualitative Aktionsbeschreibungen mit räumlichen Referenzen. Sämtliche Aktionsbeschreibungen an Entscheidungspunkten entlang der beiden Testrouten wurden auf Basis der QSAL modelliert. Im Rahmen der Studie konnte gezeigt werden, dass eine sprachbasierte Navigation von Fußgängerinnen und Fußgängern in urbaner Umgebung mit minimaler Fehlerrate und in Standardgehzeit möglich ist. Für eine effektive Navigationsunterstützung sind insbesondere das positionsgenaue Abspielen der Anweisungen sowie kognitiv-ergonomische Richtungskonzepte verantwortlich. Aktionsbeschreibungen mit Referenzen auf räumliche Objekte erhöhen das Sicherheitsgefühl der Personen und können zu einer richtigen Entscheidung in schwierigen Entscheidungssituationen beitragen. Im Vergleich zu den Meterangaben wurden die Anweisungen aus den qualitativen Aktionsbeschreibungen von den Testpersonen in allen untersuchten qualitativen Kriterien wie Attraktivität oder Eindeutigkeit besser bewertet.
Die Dissertation schließt mit Empfehlungen für die Umsetzung von sprachbasierten elektronischen Assistenzsystemen für die Fußgängernavigation und einer kritischen Betrachtung der erzielten Ergebnisse.
Aufgrund der Untersuchung von deutschen Sprachanweisungen wurde die Dissertation in deutscher Sprache verfasst.
Sub-daily parameter estimation in VLBI data analysis
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2011
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
The main objective of the work carried out within the scope of this thesis is the contribution to the VLBI2010 project of the IVS by means of developing a parameter estimation module (vie_lsm) of Vienna VLBI Software (VieVS) which is capable of estimating accurate sub-daily VLBI geodetic parameters. The vie_lsm module is based on the classical Gauss Markoff Least-Squares (LS) adjustment method by using continuous piece-wise linear offset (CPWLO) functions which are estimated at unique epochs, e.g. at integer hours, or at integer fractions or integer multiples of integer hours. The interval for CPWLO modelling of the parameters is usually set to values between one day to five minutes. To investigate the sub-daily tidal motions of the VLBI antennas during IVS-CONT05, hourly CPWLO TRF coordinates of the antennas were estimated.
Although all tidal displacements are computed from state-of-the-art geophysical models and reduced from the observations a priori to the adjustment, the radial amplitudes from the estimated hourly antenna coordinates can reach up to 1 cm (Kokee, HartRAO, Gilcreek, Westford, Svetloe, and Wettzell). To analyze the sub-daily Earth rotation parameter (ERP) estimates of VieVS during IVS-CONT08, hourly CPWLO ERP were estimated. The Fourier spectra of the hourly VLBI and Global Positioning System (GPS) ERP estimates and the high frequency (short period) ERP (HF-ERP) models during IVS-CONT08 are in a good agreement at prograde and retrograde 12 hours both for LOD and polar motion. However, at 24 hour prograde polar motion the amplitude from VLBI is larger by about 100 myas than GPS and larger by about 150 myas than HF-ERP models.
Additionally, VieVS LOD and polar motion estimates are noisier than from GPS. This may be due to the fact that no relative constraints between the CPWLO ERP estimates in VLBI analysis were introduced. The estimation of hourly source coordinates was rather intended as test study. As long as hourly CPWLO coordinates of two sources are estimated and the remaining sources are fixed to their a priori CRF, the EOP parametrization is not critical for the estimated source coordinates.
However, investigations on this issue need to be carried out in future, e.g. a lot can be learned from correlations between hourly source coordinates and observation geometry.
The second aim of this thesis, which is also a very good rest of the CPWLO estimates of troposphere zenith delays and gradients, is the contribution to combination studies in the framework of the Global Geodetic Observing System (GGOS) of the International Association of Geodesy (IAG) by multi-technique comparison of ZTD and troposphere gradients. In the scope of this issue, VLBI VieVS estimates of troposphere zenith total delays (ZTD) and gradients during IVS-CONT08 were compared with those derived from observations with the Global Positioning System (GPS), Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS), and water vapor radiometers (WVR) co-located with the VLBI radio telescopes. ZTD and gradients estimated by space geodetic techniques are compared to those computed by ray-tracing through the profiles of various Numerical Weather Models (NWM), such as the European Centre for Medium-Range Weather Forecasts (ECMWF) (all sites), the Japan Meteorological Agency (JMA) and Cloud Resolving Storm Simulator (CReSS) (Tsukuba in Japan), and the High Resolution Limited Area Model (HIRLAM) (European sites). The best inter space geodetic technique agreement of ZTD during IVS-CONT08 is found between the combined IVS and the IGS solutions with a mean standard deviation of about 6 mm over all sites, whereas the agreement with numerical weather models is between 6 and 20 mm. The standard deviations are generally larger at low latitude sites because of higher humidity, and the latter is also the reason why the standard deviations are larger at northern hemisphere stations during IVS-CONT08 in comparison to IVS-CONT02 which was observed in October 2002. The assessment of the troposphere gradients from the different techniques is not as clear because of different time intervals, different estimation properties, or different observable. However, the best inter-technique agreement is found between the IVS combined gradients and a GPS solutions with standard deviations between 0.2 mm and 0.7 mm. As mentioned before all the comparisons and validation tests on the troposphere products during IVS-CONT08 presented in this thesis provide important information with respect to the planned combination and integration of various observing techniques in the framework of the Global Geodetic Observing System (GGOS) of the International Association of Geodesy (IAG).
The main objective of the work carried out within the scope of this thesis is the contribution to the VLBI2010 project of the IVS by means of developing a parameter estimation module (vie_lsm) of Vienna VLBI Software (VieVS) which is capable of estimating accurate sub-daily VLBI geodetic parameters. The vie_lsm module is based on the classical Gauss Markoff Least-Squares (LS) adjustment method by using continuous piece-wise linear offset (CPWLO) functions which are estimated at unique epochs, e.g. at integer hours, or at integer fractions or integer multiples of integer hours. The interval for CPWLO modelling of the parameters is usually set to values between one day to five minutes. To investigate the sub-daily tidal motions of the VLBI antennas during IVS-CONT05, hourly CPWLO TRF coordinates of the antennas were estimated.
Although all tidal displacements are computed from state-of-the-art geophysical models and reduced from the observations a priori to the adjustment, the radial amplitudes from the estimated hourly antenna coordinates can reach up to 1 cm (Kokee, HartRAO, Gilcreek, Westford, Svetloe, and Wettzell). To analyze the sub-daily Earth rotation parameter (ERP) estimates of VieVS during IVS-CONT08, hourly CPWLO ERP were estimated. The Fourier spectra of the hourly VLBI and Global Positioning System (GPS) ERP estimates and the high frequency (short period) ERP (HF-ERP) models during IVS-CONT08 are in a good agreement at prograde and retrograde 12 hours both for LOD and polar motion. However, at 24 hour prograde polar motion the amplitude from VLBI is larger by about 100 myas than GPS and larger by about 150 myas than HF-ERP models.
Additionally, VieVS LOD and polar motion estimates are noisier than from GPS. This may be due to the fact that no relative constraints between the CPWLO ERP estimates in VLBI analysis were introduced. The estimation of hourly source coordinates was rather intended as test study. As long as hourly CPWLO coordinates of two sources are estimated and the remaining sources are fixed to their a priori CRF, the EOP parametrization is not critical for the estimated source coordinates.
However, investigations on this issue need to be carried out in future, e.g. a lot can be learned from correlations between hourly source coordinates and observation geometry.
The second aim of this thesis, which is also a very good rest of the CPWLO estimates of troposphere zenith delays and gradients, is the contribution to combination studies in the framework of the Global Geodetic Observing System (GGOS) of the International Association of Geodesy (IAG) by multi-technique comparison of ZTD and troposphere gradients. In the scope of this issue, VLBI VieVS estimates of troposphere zenith total delays (ZTD) and gradients during IVS-CONT08 were compared with those derived from observations with the Global Positioning System (GPS), Doppler Orbitography and Radiopositioning Integrated by Satellite (DORIS), and water vapor radiometers (WVR) co-located with the VLBI radio telescopes. ZTD and gradients estimated by space geodetic techniques are compared to those computed by ray-tracing through the profiles of various Numerical Weather Models (NWM), such as the European Centre for Medium-Range Weather Forecasts (ECMWF) (all sites), the Japan Meteorological Agency (JMA) and Cloud Resolving Storm Simulator (CReSS) (Tsukuba in Japan), and the High Resolution Limited Area Model (HIRLAM) (European sites). The best inter space geodetic technique agreement of ZTD during IVS-CONT08 is found between the combined IVS and the IGS solutions with a mean standard deviation of about 6 mm over all sites, whereas the agreement with numerical weather models is between 6 and 20 mm. The standard deviations are generally larger at low latitude sites because of higher humidity, and the latter is also the reason why the standard deviations are larger at northern hemisphere stations during IVS-CONT08 in comparison to IVS-CONT02 which was observed in October 2002. The assessment of the troposphere gradients from the different techniques is not as clear because of different time intervals, different estimation properties, or different observable. However, the best inter-technique agreement is found between the IVS combined gradients and a GPS solutions with standard deviations between 0.2 mm and 0.7 mm. As mentioned before all the comparisons and validation tests on the troposphere products during IVS-CONT08 presented in this thesis provide important information with respect to the planned combination and integration of various observing techniques in the framework of the Global Geodetic Observing System (GGOS) of the International Association of Geodesy (IAG).
Echtzeit Bahn- und Uhrberechnug der GPS-Satellitenkonstellation basierend auf Beobachtungsdaten des RTIGS-Stationsnetzwerks
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2011
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
In den letzten Jahren zeigt sich auf dem Gebiet der Positionierung und Navigation mit Hilfe globaler Satellitennavigationssysteme (GNSS) immer mehr die Tendenz, neben der präzisen Positionsbestimmung mittels Nachprozessierung (Postprocessing), Echtzeit-Beobachtungsdaten für die präzise Positionierung bzw. für die Erstellung neuer Produkte und Services einzusetzen. Zum Einen ermöglicht dies die weltweit immer bessere Vernetzung (Kommunikationsnetzwerke) von Beobachtungsstationen über das Internet, zum Anderen bieten Datenformatstandards wie z.B. RTCM (NTRIP), RTIGS, usw. die Grundlage GNSS-Beobachtungsdaten an diverse Nutzer sicher und einfach zu übertragen. In diesem Zusammenhang hat der internationale Dienst für GNSS (International GNSS Service, IGS) vor einigen Jahren mit dem Aufbau eines globalen Referenzstationsnetzwerks begonnen.
Dessen Stationen (RTIGS-Stationen) übermitteln ihre Beobachtungsdaten in Echtzeit über das Internet an authorisierte Benutzer, um diesen die Entwicklung potentieller neuer Echtzeit-Dienste und Produkte zu ermöglichen. Für diese Zwecke wurde vom IGS die Arbeitsgruppe für Echtzeit (Real-Time Working Group, RTWG) eingerichtet. Ein Beispiel für eine innerhalb der RTWG entwickelte Software ist die in dieser Arbeit beschriebene Echtzeit-Berechnungsroutine RTIGU-Control. RTIGU-Control erfüllt dabei 2 wesentliche Hauptaufgaben. Zum Einen werden die prädizierten Bahn- und Uhrprodukte von IGS (IGU-Produkte) durch die Verwendung aktueller Beobachtungsdaten kontrolliert und auf Konsistenz geprüft. Zum Anderen werden, basierend auf den bereits qualitativ hochwertigen Bahnprädiktionen der IGU-Produkte, qualitativ höherwertige Uhrprodukte im Vergleich zu den IGU-Prädiktionen erzeugt. Mit Hilfe phasen-geglätteter Code-Beobachtungen, die zusätzlich um eine Reihe von die GNSS-Beobachtungen beeinflussende Effekte korrigiert sind (wie z.B.
Laufzeitverzögerung der Signale durch die Erdatmosphäre, relativistische Effekte, usw.), ermittelt RTIGU-Control basierend auf den IGU-Bahnprädiktionen in einem ersten Schritt präzise Werte für die Satelliten- und Stationsuhrkorrekturen. In einem zweiten Schritt werden die zuvor berechneten Uhrkorrekturen für die Kontrolle der prädizierten IGU-Bahnen herangezogen (Kontrolle der Integrität). Für beide Berechnungsschritte hat sich das Verfahren der Kalman-Filterung als praktikabel erwiesen. Die von RTIGU-Control auf diese Weise ermittelten Echtzeit Bahn- und Uhrprodukte werden einerseits tageweise in standardisierten Produktdateien (Clock-RINEX, Orbit-SP3) archiviert, andererseits in Form eines kontinuierlichen Datenstroms für Positionierungsaufgaben in Echtzeit zur Verfügung gestellt. Vergleiche der RTIGU-Control Produkte mit hochwertigen Produkten (wie z.B. die präzisen Produkte des IGS) zeigen die signifikante Steigerung der Qualität der von RTIGU-Control in Echtzeit berechneten Uhrprodukte im Vergleich zu den prädizierten IGU-Uhrprodukten.
Die Standardabweichungen der in Echtzeit ermittelten Uhrkorrekturen liegen im Bereich von etwa 0.3_0.5 Nanosekunden, was aufgrund der Genauigkeit der verwendeten phasen-geglätteten Code-Beobachtungen von 1.5_2 dm durchaus realistisch erscheint. Ein Hauptanwendungsgebiet präziser Echtzeit Bahn- und Uhrprodukte liegt in der Verwendung für globale Positionierungs- und Navigationsaufgaben ohne Bildung von Basislinien zu umliegenden GNSS-Referenzstationen (zero-difference). Ein für diese Zwecke geeigneter Algorithmus ist jener des Precise Point Positioning, PPP. PPP benötigt dabei neben diversen Modellansätzen und Parametern zur Berücksichtigung der auf die GNSS-Beobachtungen wirkenden Einflüsse, zusätzlich präzise Satellitenuhr- und Bahninformationen. Die Verwendung der in Echtzeit generierten Satellitenuhrkorrekturen von RTIGU-Control gemeinsam mit den prädizierten IGU-Bahnen zeigt das enorme Potential dieser Echtzeit-Produkte für globale Positionierungsaufgaben mittels des Verfahrens des PPP (Real-Time PPP, RTPPP). Bei RTPPP Testmessungen mit Einbeziehung der RTIGU-Control Produkte konnten dabei Positionsgenauigkeiten von 0.3_0.5 Meter erzielt werden.
Mit RTIGU-Control konnte ein erster Schritt in Richtung Erzeugung und Bereitstellung qualitativ hochwertiger GPS-Satellitenuhrkorrekturen und Bahnparameter in nahezu Echtzeit vollzogen werden. Die vorliegende Arbeit zeigt das bereits vorhandene Potential dieser Echtzeit-Produkte im Hinblick auf Punktbestimmungen mittels echtzeit-nahem Postprocessing bzw. in quasi-Echtzeit.
In den letzten Jahren zeigt sich auf dem Gebiet der Positionierung und Navigation mit Hilfe globaler Satellitennavigationssysteme (GNSS) immer mehr die Tendenz, neben der präzisen Positionsbestimmung mittels Nachprozessierung (Postprocessing), Echtzeit-Beobachtungsdaten für die präzise Positionierung bzw. für die Erstellung neuer Produkte und Services einzusetzen. Zum Einen ermöglicht dies die weltweit immer bessere Vernetzung (Kommunikationsnetzwerke) von Beobachtungsstationen über das Internet, zum Anderen bieten Datenformatstandards wie z.B. RTCM (NTRIP), RTIGS, usw. die Grundlage GNSS-Beobachtungsdaten an diverse Nutzer sicher und einfach zu übertragen. In diesem Zusammenhang hat der internationale Dienst für GNSS (International GNSS Service, IGS) vor einigen Jahren mit dem Aufbau eines globalen Referenzstationsnetzwerks begonnen.
Dessen Stationen (RTIGS-Stationen) übermitteln ihre Beobachtungsdaten in Echtzeit über das Internet an authorisierte Benutzer, um diesen die Entwicklung potentieller neuer Echtzeit-Dienste und Produkte zu ermöglichen. Für diese Zwecke wurde vom IGS die Arbeitsgruppe für Echtzeit (Real-Time Working Group, RTWG) eingerichtet. Ein Beispiel für eine innerhalb der RTWG entwickelte Software ist die in dieser Arbeit beschriebene Echtzeit-Berechnungsroutine RTIGU-Control. RTIGU-Control erfüllt dabei 2 wesentliche Hauptaufgaben. Zum Einen werden die prädizierten Bahn- und Uhrprodukte von IGS (IGU-Produkte) durch die Verwendung aktueller Beobachtungsdaten kontrolliert und auf Konsistenz geprüft. Zum Anderen werden, basierend auf den bereits qualitativ hochwertigen Bahnprädiktionen der IGU-Produkte, qualitativ höherwertige Uhrprodukte im Vergleich zu den IGU-Prädiktionen erzeugt. Mit Hilfe phasen-geglätteter Code-Beobachtungen, die zusätzlich um eine Reihe von die GNSS-Beobachtungen beeinflussende Effekte korrigiert sind (wie z.B.
Laufzeitverzögerung der Signale durch die Erdatmosphäre, relativistische Effekte, usw.), ermittelt RTIGU-Control basierend auf den IGU-Bahnprädiktionen in einem ersten Schritt präzise Werte für die Satelliten- und Stationsuhrkorrekturen. In einem zweiten Schritt werden die zuvor berechneten Uhrkorrekturen für die Kontrolle der prädizierten IGU-Bahnen herangezogen (Kontrolle der Integrität). Für beide Berechnungsschritte hat sich das Verfahren der Kalman-Filterung als praktikabel erwiesen. Die von RTIGU-Control auf diese Weise ermittelten Echtzeit Bahn- und Uhrprodukte werden einerseits tageweise in standardisierten Produktdateien (Clock-RINEX, Orbit-SP3) archiviert, andererseits in Form eines kontinuierlichen Datenstroms für Positionierungsaufgaben in Echtzeit zur Verfügung gestellt. Vergleiche der RTIGU-Control Produkte mit hochwertigen Produkten (wie z.B. die präzisen Produkte des IGS) zeigen die signifikante Steigerung der Qualität der von RTIGU-Control in Echtzeit berechneten Uhrprodukte im Vergleich zu den prädizierten IGU-Uhrprodukten.
Die Standardabweichungen der in Echtzeit ermittelten Uhrkorrekturen liegen im Bereich von etwa 0.3_0.5 Nanosekunden, was aufgrund der Genauigkeit der verwendeten phasen-geglätteten Code-Beobachtungen von 1.5_2 dm durchaus realistisch erscheint. Ein Hauptanwendungsgebiet präziser Echtzeit Bahn- und Uhrprodukte liegt in der Verwendung für globale Positionierungs- und Navigationsaufgaben ohne Bildung von Basislinien zu umliegenden GNSS-Referenzstationen (zero-difference). Ein für diese Zwecke geeigneter Algorithmus ist jener des Precise Point Positioning, PPP. PPP benötigt dabei neben diversen Modellansätzen und Parametern zur Berücksichtigung der auf die GNSS-Beobachtungen wirkenden Einflüsse, zusätzlich präzise Satellitenuhr- und Bahninformationen. Die Verwendung der in Echtzeit generierten Satellitenuhrkorrekturen von RTIGU-Control gemeinsam mit den prädizierten IGU-Bahnen zeigt das enorme Potential dieser Echtzeit-Produkte für globale Positionierungsaufgaben mittels des Verfahrens des PPP (Real-Time PPP, RTPPP). Bei RTPPP Testmessungen mit Einbeziehung der RTIGU-Control Produkte konnten dabei Positionsgenauigkeiten von 0.3_0.5 Meter erzielt werden.
Mit RTIGU-Control konnte ein erster Schritt in Richtung Erzeugung und Bereitstellung qualitativ hochwertiger GPS-Satellitenuhrkorrekturen und Bahnparameter in nahezu Echtzeit vollzogen werden. Die vorliegende Arbeit zeigt das bereits vorhandene Potential dieser Echtzeit-Produkte im Hinblick auf Punktbestimmungen mittels echtzeit-nahem Postprocessing bzw. in quasi-Echtzeit.
Einflüsse der Netzwerkkonfiguration auf Erdbebenlokalisierungen
Institut für Geodäsie und Geophysik, Forschungsgruppe Geophysik, Technische Universität Wien, 2011
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
Die rezente seismische Aktivität um Wien weist auf eine noch immer aktive Tektonik im Wiener Becken hin. Die Kenntnis wahrscheinlicher maximaler Magnituden im Großraum Wien ist für die zu erwartende Erdbebengefährdung von großer Bedeutung. Eine Abschätzung kann über die Ausdehnung von Bruchflächen gemacht werden, welche oberflächennahe bekannt sind, in den tieferen seismogenen Zonen aber nur durch Erdbeben kartiert werden können. Aktuelle Standardlokalisierungen bieten jedoch keine ausreichende Genauigkeit.
Durch die Verwendung zusätzlicher Stationen im Rahmen des Projektes ALPAACT und eines 3D-Geschwindigkeitmodells wird die Ortungsgenauigkeit erhöht. Manche Stationen stehen aber nur zeitlich begrenzt zur Verfügung, die Ortungsgenauigkeit soll jedoch erhalten bleiben. Dazu müssen systematische Einflüsse auf die Lokalisierung aufgedeckt und Verbesserungsmöglichkeiten untersucht werden.
Als erstes wurde der Abbau von Stationen des ALPAACT Netzes simuliert. Im zweiten Fall wurde die Änderung der Netzwerkkonfiguration aufgrund von Stationswegfall durch geringere Magnituden modelliert. Dafür wurden Detektionsschwellen für jede Station über die tatsächlich gemachten Ankunftszeitbeobachtungen gebildet.
Anschließend wurden die Einflüsse in der Laufzeitberechnung durch Offset und Station ermittelt und mit einer verbesserten Laufzeitberechnung neu lokalisiert. Da nur eine teilweise Verbesserung erreicht werden konnte, wurde Fehler in den beobachteten Ankunftszeiten simuliert. Die Fehler in den Ankunftszeiten entsprachen den tatsächlich beobachteten Lageänderungen.
Durch die verbesserte Laufzeitberechnung konnte die Standardabweichung der Laufzeitresiduen um mehr als 20 % reduziert werden. Die relativen Lageänderungen konnten teilweise verbessert werden, im Mittel jedoch nicht. Mit der verbesserten Laufzeitberechnung weichen die tektonischen Erdbeben nur noch um weniger als 2.7 km von einer Mittellinie mit einer Länge von 49 km im südlichen Wiener Becken ab. Außerdem ist nun ein Abwärtstrend der Bebentiefen in Richtung Nordosten sichtbar.
Für eine genauere Lokalisierung ist eine verbesserte Beobachtung der Ankunftszeiten notwendig. Ein größerer Datensatz an Erdbeben für die Ermittlung von Offset- und Stationskorrektur wäre für zukünftige Untersuchungen ebenfalls förderlich.
Die rezente seismische Aktivität um Wien weist auf eine noch immer aktive Tektonik im Wiener Becken hin. Die Kenntnis wahrscheinlicher maximaler Magnituden im Großraum Wien ist für die zu erwartende Erdbebengefährdung von großer Bedeutung. Eine Abschätzung kann über die Ausdehnung von Bruchflächen gemacht werden, welche oberflächennahe bekannt sind, in den tieferen seismogenen Zonen aber nur durch Erdbeben kartiert werden können. Aktuelle Standardlokalisierungen bieten jedoch keine ausreichende Genauigkeit.
Durch die Verwendung zusätzlicher Stationen im Rahmen des Projektes ALPAACT und eines 3D-Geschwindigkeitmodells wird die Ortungsgenauigkeit erhöht. Manche Stationen stehen aber nur zeitlich begrenzt zur Verfügung, die Ortungsgenauigkeit soll jedoch erhalten bleiben. Dazu müssen systematische Einflüsse auf die Lokalisierung aufgedeckt und Verbesserungsmöglichkeiten untersucht werden.
Als erstes wurde der Abbau von Stationen des ALPAACT Netzes simuliert. Im zweiten Fall wurde die Änderung der Netzwerkkonfiguration aufgrund von Stationswegfall durch geringere Magnituden modelliert. Dafür wurden Detektionsschwellen für jede Station über die tatsächlich gemachten Ankunftszeitbeobachtungen gebildet.
Anschließend wurden die Einflüsse in der Laufzeitberechnung durch Offset und Station ermittelt und mit einer verbesserten Laufzeitberechnung neu lokalisiert. Da nur eine teilweise Verbesserung erreicht werden konnte, wurde Fehler in den beobachteten Ankunftszeiten simuliert. Die Fehler in den Ankunftszeiten entsprachen den tatsächlich beobachteten Lageänderungen.
Durch die verbesserte Laufzeitberechnung konnte die Standardabweichung der Laufzeitresiduen um mehr als 20 % reduziert werden. Die relativen Lageänderungen konnten teilweise verbessert werden, im Mittel jedoch nicht. Mit der verbesserten Laufzeitberechnung weichen die tektonischen Erdbeben nur noch um weniger als 2.7 km von einer Mittellinie mit einer Länge von 49 km im südlichen Wiener Becken ab. Außerdem ist nun ein Abwärtstrend der Bebentiefen in Richtung Nordosten sichtbar.
Für eine genauere Lokalisierung ist eine verbesserte Beobachtung der Ankunftszeiten notwendig. Ein größerer Datensatz an Erdbeben für die Ermittlung von Offset- und Stationskorrektur wäre für zukünftige Untersuchungen ebenfalls förderlich.
Development of flood damage potential model for spatial decision support
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2011
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
River Flooding is one of the major natural hazards in Nigeria. During raining season, river flooding causes casualties to human and displaces property worth billion of Naira. Recent floods in large river systems such as the Osun and Ogun River have increased the awareness of responsible river authorities about the urgent need for an integrated GIS-based tool that will enable them to forecast flood condition and manage the river environment. Also, International Organization and Federal Government of Nigeria were working together to manage these flood events. In this paper, the goal of the thesis is to develop a flood damage potential model for spatial decision support in Nigeria. To achieve this goal, the study specifically examines brief introduction into the general concept of flood damage potential, factors for flood damage potential, flood damage potential mapping and risk management. In particular, focus on three major parts of methodological framework to develop a model, this major parts are: (1) Catalog of objects and related vulnerability, (2) flood hazard zones, and (3) flood risk. To evaluate the extent of conceptual model developed, risk and vulnerability assessment was performed using Integrated GIS tools (for example ArcGIS 9.2 version) for spatial analysis. The following results were produced: Vulnerability map, flood hazard map and flood risk map. These results were compared using difference flood scenario define in this study. The final conclusion with regard to catalog of protected objects and its exposure to hazard in this region was identified and spatial decision was made to minimize economic and environmental loss during flood events.
River Flooding is one of the major natural hazards in Nigeria. During raining season, river flooding causes casualties to human and displaces property worth billion of Naira. Recent floods in large river systems such as the Osun and Ogun River have increased the awareness of responsible river authorities about the urgent need for an integrated GIS-based tool that will enable them to forecast flood condition and manage the river environment. Also, International Organization and Federal Government of Nigeria were working together to manage these flood events. In this paper, the goal of the thesis is to develop a flood damage potential model for spatial decision support in Nigeria. To achieve this goal, the study specifically examines brief introduction into the general concept of flood damage potential, factors for flood damage potential, flood damage potential mapping and risk management. In particular, focus on three major parts of methodological framework to develop a model, this major parts are: (1) Catalog of objects and related vulnerability, (2) flood hazard zones, and (3) flood risk. To evaluate the extent of conceptual model developed, risk and vulnerability assessment was performed using Integrated GIS tools (for example ArcGIS 9.2 version) for spatial analysis. The following results were produced: Vulnerability map, flood hazard map and flood risk map. These results were compared using difference flood scenario define in this study. The final conclusion with regard to catalog of protected objects and its exposure to hazard in this region was identified and spatial decision was made to minimize economic and environmental loss during flood events.
Mapping application with web client and mobile client - Applied in the field of birding
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2011
Betreuer: FH-Prof. Dr. Gernot Paulus, Mag. Christian Ragger (Revital Ziviltechniker GmbH)
Betreuer: FH-Prof. Dr. Gernot Paulus, Mag. Christian Ragger (Revital Ziviltechniker GmbH)
Kurzfassung/Abstract
For various reasons it is necessary to collect actual data to assess the current state of the environment. Until now data collection is most often done by printing maps, carrying them into field and digitizing the data after the field work is finished. Furthermore for almost every project a limited time span is available for doing the mapping of the ecological situation. Mapping over long time periods is very costly and time consuming. The idea in this work is to use new technologies like mobile devices and the internet to support and improve data collection.
Via a web portal it is possible to reach citizens with a special interest in a specific topic for data collection. This way a comprehensive dataset can be collected and permanently enlarged. The field work for data collection can be supported by applications on mobile devices like Apples iPad. The main task of such an application is to capture points and to store attribute data for this point. Finally the data collected should also be submitted to a central database which is connected to further applications like the online web portal for data collection.
In this work a web portal and a mobile client were designed and partially implemented for the field of bird watching with a special focus on the adaptability of the whole system for different ecological topics.
For various reasons it is necessary to collect actual data to assess the current state of the environment. Until now data collection is most often done by printing maps, carrying them into field and digitizing the data after the field work is finished. Furthermore for almost every project a limited time span is available for doing the mapping of the ecological situation. Mapping over long time periods is very costly and time consuming. The idea in this work is to use new technologies like mobile devices and the internet to support and improve data collection.
Via a web portal it is possible to reach citizens with a special interest in a specific topic for data collection. This way a comprehensive dataset can be collected and permanently enlarged. The field work for data collection can be supported by applications on mobile devices like Apples iPad. The main task of such an application is to capture points and to store attribute data for this point. Finally the data collected should also be submitted to a central database which is connected to further applications like the online web portal for data collection.
In this work a web portal and a mobile client were designed and partially implemented for the field of bird watching with a special focus on the adaptability of the whole system for different ecological topics.
Natural Hazards Risk Communication and Modern Visualization
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2011
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
To communicate risks of natural hazards is a big challenge, when the technical information needs to be presented to the general public, to those who are not experts in a field of natural hazards. That’s why it is essential to follow new technologies and improve communication methodologies, tools and the ways of presentations.
The project focuses on effective risk communication methods, strategies and tools. The aim is how to communicate the technical information about the natural hazards to the public and how the community can be involved in a risk management process. Risk communication is more than just communicating scientific information in one direction to the public, it is interactive two way communication, and therefore it is essential to be sensitive to social aspects of the community, different perceptions of risks, different background of individuals. The importance is how general public perceive risk messages, and how those messages change their behavior concerning the risks. Risk communication should change their behavior and encourage communities and individuals to take protective actions from the natural hazards, in that way to save lives and reduce the economic and environmental losses.
To improve risk communication process of natural hazards there is a need to enhance the risk communication framework according to the natural hazards, as there is no comprehensive framework for that. After literature analysis a new risk communication framework has been created and tested with the natural hazards data of Carinthia region, specifically Dellach im Drautal community has been selected for further analysis.
Case study focuses on the visual representations of natural hazards risk zones, the question was how better to visualize the available data in order to help community to understand what are risks and what are the causes in the occurrence of a specific hazard. In this case the focus was on major flood zones and torrent flood zones.
To communicate risks of natural hazards is a big challenge, when the technical information needs to be presented to the general public, to those who are not experts in a field of natural hazards. That’s why it is essential to follow new technologies and improve communication methodologies, tools and the ways of presentations.
The project focuses on effective risk communication methods, strategies and tools. The aim is how to communicate the technical information about the natural hazards to the public and how the community can be involved in a risk management process. Risk communication is more than just communicating scientific information in one direction to the public, it is interactive two way communication, and therefore it is essential to be sensitive to social aspects of the community, different perceptions of risks, different background of individuals. The importance is how general public perceive risk messages, and how those messages change their behavior concerning the risks. Risk communication should change their behavior and encourage communities and individuals to take protective actions from the natural hazards, in that way to save lives and reduce the economic and environmental losses.
To improve risk communication process of natural hazards there is a need to enhance the risk communication framework according to the natural hazards, as there is no comprehensive framework for that. After literature analysis a new risk communication framework has been created and tested with the natural hazards data of Carinthia region, specifically Dellach im Drautal community has been selected for further analysis.
Case study focuses on the visual representations of natural hazards risk zones, the question was how better to visualize the available data in order to help community to understand what are risks and what are the causes in the occurrence of a specific hazard. In this case the focus was on major flood zones and torrent flood zones.
Berechnung topographischer Schwerefeldanteile auf Basis von digitalen Geländemodellen
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2011
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Ziel dieser Arbeit ist die Erstellung einer Software zur Bestimmung topographischer Schwerefeldanteile auf Basis eines digitalen Geländemodells. In Gebieten mit bewegter Topographie, wie z.B. in den österreichischen Alpen, ist es von großem Interesse, die lokalen Einflüsse des Schwerefeldes zu kennen, um die in der Ingenieurgeodäsie mittels hochgenauer Verfahren durchgeführten Messungen um jene störenden Einflüsse korrigieren zu können. Bei Kreiselmessungen im Tunnel- und Kraftwerksbau ist die Reduktion der Lotabweichung heutzutage beinahe unerlässlich, um die geforderte Durchschlagsgenauigkeit erreichen zu können.
Diese Arbeit zeigt, aus welchen Quellen digitale Geländemodelle als Datengrundlage bezogen werden können und welches Formelwerk nötig ist, um die lokalen topographischen Schwerefeldanteile berechnen zu können.
Speziell werden die an Kreiselmessungen anzubringenden Reduktionen im Detail beschrieben. Als Testdaten standen ein digitales Geländemodell des Bundesamts für Eich- und Vermessungswesen sowie Netzpunkte des Kraftwerkprojekts Limberg II in Kaprun zur Verfügung, die von der Firma Geodata bereitgestellt wurden.
Ziel dieser Arbeit ist die Erstellung einer Software zur Bestimmung topographischer Schwerefeldanteile auf Basis eines digitalen Geländemodells. In Gebieten mit bewegter Topographie, wie z.B. in den österreichischen Alpen, ist es von großem Interesse, die lokalen Einflüsse des Schwerefeldes zu kennen, um die in der Ingenieurgeodäsie mittels hochgenauer Verfahren durchgeführten Messungen um jene störenden Einflüsse korrigieren zu können. Bei Kreiselmessungen im Tunnel- und Kraftwerksbau ist die Reduktion der Lotabweichung heutzutage beinahe unerlässlich, um die geforderte Durchschlagsgenauigkeit erreichen zu können.
Diese Arbeit zeigt, aus welchen Quellen digitale Geländemodelle als Datengrundlage bezogen werden können und welches Formelwerk nötig ist, um die lokalen topographischen Schwerefeldanteile berechnen zu können.
Speziell werden die an Kreiselmessungen anzubringenden Reduktionen im Detail beschrieben. Als Testdaten standen ein digitales Geländemodell des Bundesamts für Eich- und Vermessungswesen sowie Netzpunkte des Kraftwerkprojekts Limberg II in Kaprun zur Verfügung, die von der Firma Geodata bereitgestellt wurden.
Konzept einer Transformationsbeschreibungssprache für Landbedeckungs- und Landnutzungssysteme
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2011
Betreuer: Dipl.-Ing. Roland Grillmayer
Betreuer: Dipl.-Ing. Roland Grillmayer
Kurzfassung/Abstract
Die vorliegende Arbeit beschreibt ein Konzept zur Definition einer Transformationsbeschreibungssprache für Landbedeckungs- und Landnutzungssysteme. Den Schwerpunkt dabei bildet das Thema der semantischen Transformation und geometrischen Generalisierung des österreichischen LISA Landbedeckungs- und Landnutzungsdatensatzes in das europäische Corine Land Cover Model. Im Rahmen der Arbeit wird im Speziellen die Eignung der in der ISO/DIS 19144-2 beschriebenen Landcover Meta Language bei Erarbeitung der Konzepte zur Modelltransformation untersucht.
Die vorliegende Arbeit beschreibt ein Konzept zur Definition einer Transformationsbeschreibungssprache für Landbedeckungs- und Landnutzungssysteme. Den Schwerpunkt dabei bildet das Thema der semantischen Transformation und geometrischen Generalisierung des österreichischen LISA Landbedeckungs- und Landnutzungsdatensatzes in das europäische Corine Land Cover Model. Im Rahmen der Arbeit wird im Speziellen die Eignung der in der ISO/DIS 19144-2 beschriebenen Landcover Meta Language bei Erarbeitung der Konzepte zur Modelltransformation untersucht.
Standortplanung für McDonald's in Wien
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2011
Betreuer: Dipl.-Ing. Brigitte Rudel
Betreuer: Dipl.-Ing. Brigitte Rudel
Kurzfassung/Abstract
Für die Firma McDonalds sollen geeignete Standorte für potentielle neue Filialen gefunden werden. Das Analysegebiet ist auf das Bundesland Wien beschränkt. Wien ist ein urbanes Gebiet, daher kommen bei Analysen andere Ansätze als in Restösterreich zur Anwendung. Die Besonderheit dieses Bundeslandes wird bei den Analysen berücksichtigt. Es werden vorhandene Modelle zur Standortplanung auf ihre Verwendbarkeit überprüft und verwendbare Modelle als Teile eines eigenen Analysemodells integriert.
Für die Firma McDonalds sollen geeignete Standorte für potentielle neue Filialen gefunden werden. Das Analysegebiet ist auf das Bundesland Wien beschränkt. Wien ist ein urbanes Gebiet, daher kommen bei Analysen andere Ansätze als in Restösterreich zur Anwendung. Die Besonderheit dieses Bundeslandes wird bei den Analysen berücksichtigt. Es werden vorhandene Modelle zur Standortplanung auf ihre Verwendbarkeit überprüft und verwendbare Modelle als Teile eines eigenen Analysemodells integriert.
Gravity observations at the fundamental station Onsala Space Observatory
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Das Ziel dieser Diplomarbeit ist es, den Schwereunterschied zwischen dem alten und dem neu gebauten Gravimeterhaus der Fundamentalstation Onsala mittels eines Relativgravimeters zu ermitteln.
Da Schweredaten immer einen Signalanteil aus Erdgezeiten und Luftdruck enthalten, werden in dieser Arbeit unterschiedliche Methoden angewendet, um diese aus den Gravimeterdaten zu entfernen. Dazu gehören die Multilineare Regression, sowie Kreuzkorrelationen, die mittels der Software TSoft und ETERNA berechnet werden. So konnte eine Qualitätsanalyse des Gerätes durchgeführt werden, welche eine Genauigkeit von 22 uGal lieferte.
Anfängliche Priorität hat die Bestimmung des Schweregradienten des Gebiets rund um die Fundamentalstation Onsala. Da die Forschungsstation in Zukunft mehrere Aufstellmöglichkeiten für diverse Instrumente bietet, dient dieser einer zukünftig präziseren Vergleichbarkeit der Ergebnisse, die verschiedene Gravimeter unterschiedlicher Instrumentenhöhe liefern.
Für das neue Gravimeterhaus ergab sich ein Schweregradient von 3.295 uGal/cm, was mit dem Schweregradienten von Lantmäteriet, dem schedischen Bundesvermessungsamt sehr gut zusammenpasst. Um Relativgravimeter für längere Beobachtungszeiträume einsetzen zu können, müssen Driftparameter bestimmt werden, was mittels der Profilmethode geschieht. Das aufgezeichnete Signal wird nachträglich um die ermittelte Instrumentendrift korrigiert. In dieser Arbeit wurde in erster Linie ein LaCoste & Romberg G624 Relativgravimeter eingesetzt.
Mit Hilfe der bereits erwähnten Methoden bestimmt man den Schwereunterschied der beiden Standpunkte in den Gravimeterhäusern und ermöglicht einen direkten Vergleich zu den Messungen mit einem Absolutgravimeter, durchgeführt von der Leibniz Universität, Hannover.
Weiters wird mittels Simulation der Einfluss des nahegelegenen Biotopes identifiziert. Dieses Resultat untermauert die Relevanz der Verlegung des Gravimeterhauses. Zuletzt werden orthometrische (Nivellement) und ellipsoidische (GPS) Höhen bestimmt. Die aus der Differenz gewonnen Undulationen für definierte Punkte werden mit den Angaben für das lokale Geoid SVEN08 und jenen des globalen Geoides EGM96 verglichen. Somit kann ein lokaler Geoidtest durchgeführt werden, der zeigen soll, wie viel passender die Undulationen im Modell SVEN08 im Vergleich zum EGM96 sind.
Das Ziel dieser Diplomarbeit ist es, den Schwereunterschied zwischen dem alten und dem neu gebauten Gravimeterhaus der Fundamentalstation Onsala mittels eines Relativgravimeters zu ermitteln.
Da Schweredaten immer einen Signalanteil aus Erdgezeiten und Luftdruck enthalten, werden in dieser Arbeit unterschiedliche Methoden angewendet, um diese aus den Gravimeterdaten zu entfernen. Dazu gehören die Multilineare Regression, sowie Kreuzkorrelationen, die mittels der Software TSoft und ETERNA berechnet werden. So konnte eine Qualitätsanalyse des Gerätes durchgeführt werden, welche eine Genauigkeit von 22 uGal lieferte.
Anfängliche Priorität hat die Bestimmung des Schweregradienten des Gebiets rund um die Fundamentalstation Onsala. Da die Forschungsstation in Zukunft mehrere Aufstellmöglichkeiten für diverse Instrumente bietet, dient dieser einer zukünftig präziseren Vergleichbarkeit der Ergebnisse, die verschiedene Gravimeter unterschiedlicher Instrumentenhöhe liefern.
Für das neue Gravimeterhaus ergab sich ein Schweregradient von 3.295 uGal/cm, was mit dem Schweregradienten von Lantmäteriet, dem schedischen Bundesvermessungsamt sehr gut zusammenpasst. Um Relativgravimeter für längere Beobachtungszeiträume einsetzen zu können, müssen Driftparameter bestimmt werden, was mittels der Profilmethode geschieht. Das aufgezeichnete Signal wird nachträglich um die ermittelte Instrumentendrift korrigiert. In dieser Arbeit wurde in erster Linie ein LaCoste & Romberg G624 Relativgravimeter eingesetzt.
Mit Hilfe der bereits erwähnten Methoden bestimmt man den Schwereunterschied der beiden Standpunkte in den Gravimeterhäusern und ermöglicht einen direkten Vergleich zu den Messungen mit einem Absolutgravimeter, durchgeführt von der Leibniz Universität, Hannover.
Weiters wird mittels Simulation der Einfluss des nahegelegenen Biotopes identifiziert. Dieses Resultat untermauert die Relevanz der Verlegung des Gravimeterhauses. Zuletzt werden orthometrische (Nivellement) und ellipsoidische (GPS) Höhen bestimmt. Die aus der Differenz gewonnen Undulationen für definierte Punkte werden mit den Angaben für das lokale Geoid SVEN08 und jenen des globalen Geoides EGM96 verglichen. Somit kann ein lokaler Geoidtest durchgeführt werden, der zeigen soll, wie viel passender die Undulationen im Modell SVEN08 im Vergleich zum EGM96 sind.
Ausgleichung geodätischer Aufgaben mittels Gröbnerbasen
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2011
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Die in den letzten Jahrzehnten in Bereichen wie der Computeralgebra und kommutativen Algebra gewonnenen Erkenntnisse ermöglichen eine Lösung des funktionalen Modells der Ausgleichungsrechnung ohne Linearisierung. J. L. Awange und E. W. Grafarend (Algebraic Geodesy and Geoinformatics, Springer 2010) haben erste Schritte in Richtung einer algebraischen Geodäsie gesetzt; ihr Ansatz beruht auf einer Ausgleichung der Verbesserungsquadratsumme mittels Gröbnerbasen. Dabei werden die partiellen Ableitungen (nach den Unbekannten des funktionalen Modells) der Verbesserungsquadratsumme gebildet und in den Buchberger-Algorithmus eingesetzt. In dieser Arbeit soll dieser Ansatz weiterverfolgt werden; untersucht wird die Anwendung dieser Methode auf klassische Aufgabenstellungen der Geodäsie.
Die in den letzten Jahrzehnten in Bereichen wie der Computeralgebra und kommutativen Algebra gewonnenen Erkenntnisse ermöglichen eine Lösung des funktionalen Modells der Ausgleichungsrechnung ohne Linearisierung. J. L. Awange und E. W. Grafarend (Algebraic Geodesy and Geoinformatics, Springer 2010) haben erste Schritte in Richtung einer algebraischen Geodäsie gesetzt; ihr Ansatz beruht auf einer Ausgleichung der Verbesserungsquadratsumme mittels Gröbnerbasen. Dabei werden die partiellen Ableitungen (nach den Unbekannten des funktionalen Modells) der Verbesserungsquadratsumme gebildet und in den Buchberger-Algorithmus eingesetzt. In dieser Arbeit soll dieser Ansatz weiterverfolgt werden; untersucht wird die Anwendung dieser Methode auf klassische Aufgabenstellungen der Geodäsie.
3D-Stadtpark Visualisierung
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2010
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Diese Arbeit befasst sich mit der Erstellung von 3D-Modellen ausgewählter Gebäude und Objekte des Grazer Stadtparks mit Hilfe der Software SketchUp 7 und der Integration dieser Modelle in ein möglichst detailliertes 3D-Landschaftsmodell unter Verwendung der Landschaftsvisualisierungssoftware Visual Nature Studio (VNS) 2.86. Als Datengrundlage für die 3D-Visualisierung dienen ein digitales Geländemodell (DGM), ein hochauflösendes Orthophoto des Gebietes, der Baumkataster der Stadt Graz, Laserscannerdaten vom Land Steiermark sowie selbst erstellte Fotos von markanten Objekten des Grazer Stadtparks. Als Ergebnis dieser Arbeit liegen einerseits einzelne gerenderte Szenen des Grazer Stadtparks vor, die mit Originalfotos verglichen werden, um die Möglichkeiten bzw. Grenzen des Programms besser aufzeigen zu können, als auch eine Animation in Form eines kurzen Überfluges. Die Resultate zeigen, dass sich die Software VNS 2 zum Rendern fotorealistischer Szenen eignet und dass die Integration extern erstellter 3D-Modelle möglich ist.
Diese Arbeit befasst sich mit der Erstellung von 3D-Modellen ausgewählter Gebäude und Objekte des Grazer Stadtparks mit Hilfe der Software SketchUp 7 und der Integration dieser Modelle in ein möglichst detailliertes 3D-Landschaftsmodell unter Verwendung der Landschaftsvisualisierungssoftware Visual Nature Studio (VNS) 2.86. Als Datengrundlage für die 3D-Visualisierung dienen ein digitales Geländemodell (DGM), ein hochauflösendes Orthophoto des Gebietes, der Baumkataster der Stadt Graz, Laserscannerdaten vom Land Steiermark sowie selbst erstellte Fotos von markanten Objekten des Grazer Stadtparks. Als Ergebnis dieser Arbeit liegen einerseits einzelne gerenderte Szenen des Grazer Stadtparks vor, die mit Originalfotos verglichen werden, um die Möglichkeiten bzw. Grenzen des Programms besser aufzeigen zu können, als auch eine Animation in Form eines kurzen Überfluges. Die Resultate zeigen, dass sich die Software VNS 2 zum Rendern fotorealistischer Szenen eignet und dass die Integration extern erstellter 3D-Modelle möglich ist.
Überwachung von Erdrutschungen im Rahmen des Projekt KLAUS
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2011
Betreuer: Dipl.-Ing. Brigitte Rudel
Betreuer: Dipl.-Ing. Brigitte Rudel
Kurzfassung/Abstract
Die vorliegende Arbeit beschreibt die Aktivitäten die im Rahmen des Projekt KLAUS, welches durch die europäische Raumfahrtbehörde (ESA) gefördert wird, durchgeführt wurden. Das Projekt KLAUS zielt auf die Implementierung neuer Module für die Überwachung ökologischer Themengebiete basierend auf Satellitendaten in vier Hauptkategorien ab: Beurteilung von Biomassen, Bewertung hydrologischer Gefahren, Erkennung von Feuern und verbrannten Flächen und Bereitstellung von Strahlungskarten. Die Bewertung hydrologischer Gefahren beinhaltet dabei die Überwachung von Erdrutschungen. In diesem Zusammenhang wird ein spezielles Unwetterereignis, das sich im Gebiet von Messina in Sizilien (Italien) am 1. Oktober 2009 ereignete, analysiert. Die italienische Behörde für neue Technologien, Energien und nachhaltige wirtschaftliche Entwicklungen (ENEA), welche die Ereignisse zur Gewinnung neuer Informationen im Bereich Erdrutschungen untersucht, ist nicht nur als Endbenutzer sondern auch als wissenschaftlicher Berater involviert. Die Notwendigkeit zur Identifizierung von Abweichungen im Bodenfeuchtegehalt wurde dabei als Kernproblem festgelegt. Zur Ermittlung des Bodenfeuchtegehalts kommt der sogenannte Delta Index zum Einsatz: der Delta Index ist eine Methode welche zwei Bilder von derselben Szene aber mit unterschiedlichen Gegebenheiten (trocken und feucht) vergleicht. Abhängig von verschiedenen Annahmen, z.B. muss die Oberflächenrauigkeit zwischen beiden Bildern gleich bleiben, kann der Unterschied in der Radar-Rückstreuung rein auf eine Änderung im Bodenfeuchtegehalt zurückgeführt werden. Mangels diverser Validierungsdaten (z.B. Feldmessungen vom Bodenfeuchtegehalt), wird keine quantitative Validierung in dieser Arbeit durchgeführt. Neben einer rein visuellen Validierung werden die Ergebnisse auch seitens ENEA geprüft. Auf Grund der vorliegenden Ergebnisse kann jedoch gesagt werden, dass der Delta Index geeignet ist um den Bodenfeuchtegehalt zu ermitteln. Das Hauptproblem liegt dabei in der aktuellen Verfügbarkeit von Satellitenbildern, welche den Einsatz für operative und rasche Warnsysteme einschränkt.
Die vorliegende Arbeit beschreibt die Aktivitäten die im Rahmen des Projekt KLAUS, welches durch die europäische Raumfahrtbehörde (ESA) gefördert wird, durchgeführt wurden. Das Projekt KLAUS zielt auf die Implementierung neuer Module für die Überwachung ökologischer Themengebiete basierend auf Satellitendaten in vier Hauptkategorien ab: Beurteilung von Biomassen, Bewertung hydrologischer Gefahren, Erkennung von Feuern und verbrannten Flächen und Bereitstellung von Strahlungskarten. Die Bewertung hydrologischer Gefahren beinhaltet dabei die Überwachung von Erdrutschungen. In diesem Zusammenhang wird ein spezielles Unwetterereignis, das sich im Gebiet von Messina in Sizilien (Italien) am 1. Oktober 2009 ereignete, analysiert. Die italienische Behörde für neue Technologien, Energien und nachhaltige wirtschaftliche Entwicklungen (ENEA), welche die Ereignisse zur Gewinnung neuer Informationen im Bereich Erdrutschungen untersucht, ist nicht nur als Endbenutzer sondern auch als wissenschaftlicher Berater involviert. Die Notwendigkeit zur Identifizierung von Abweichungen im Bodenfeuchtegehalt wurde dabei als Kernproblem festgelegt. Zur Ermittlung des Bodenfeuchtegehalts kommt der sogenannte Delta Index zum Einsatz: der Delta Index ist eine Methode welche zwei Bilder von derselben Szene aber mit unterschiedlichen Gegebenheiten (trocken und feucht) vergleicht. Abhängig von verschiedenen Annahmen, z.B. muss die Oberflächenrauigkeit zwischen beiden Bildern gleich bleiben, kann der Unterschied in der Radar-Rückstreuung rein auf eine Änderung im Bodenfeuchtegehalt zurückgeführt werden. Mangels diverser Validierungsdaten (z.B. Feldmessungen vom Bodenfeuchtegehalt), wird keine quantitative Validierung in dieser Arbeit durchgeführt. Neben einer rein visuellen Validierung werden die Ergebnisse auch seitens ENEA geprüft. Auf Grund der vorliegenden Ergebnisse kann jedoch gesagt werden, dass der Delta Index geeignet ist um den Bodenfeuchtegehalt zu ermitteln. Das Hauptproblem liegt dabei in der aktuellen Verfügbarkeit von Satellitenbildern, welche den Einsatz für operative und rasche Warnsysteme einschränkt.
Objektbasierte Klassifikationsmethoden zur Erfassung alpiner Landnutzung und Landbedeckung auf Basis von SPOT 5 Daten
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2011
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Diese Masterarbeit gibt einen Überblick über Möglichkeiten der objektbasierten Klassifikation von Fernerkundungsdaten. Zu Beginn erfolgt ein Kapitel "State of the Art", worin aktuelle Projekte, die ähnliche Thematiken haben, zusammengefasst werden und danach ein kurzer allgemeiner Überblick über verschiedene Sensoren und Daten, um das verwendete Datenmaterial leichter einordnen zu können. Außerdem werden die verwendeten Softwarepakete bzw. Softwarebibliotheken (IMPACT, ERDAS IMAGINE und RSG-Remote Sensing Software Package Graz), die im Projekt zur Anwendung kommen, kurz vorgestellt. Dann werden die einzelne Bearbeitungsschritte der Fernerkundungsdaten erläutert und verschiedene Ansätze und Algorithmen erklärt sowie deren Ergebnisse miteinander verglichen. Als Bildausschnitte wurden einerseits ein Siedlungsgebiet für die Klassen "Siedlung", "Wiese" und "Trockenwiese" und andererseits ein Gebiet im alpinen Raum für die Klassen "Fels", "Blöße" und "spärlicher Bewuchs" gewählt. Zuletzt werden die Klassifizierungsergebnisse der verschiedenen angewandten Algorithmen gegenübergestellt und daraus Schlussfolgerungen gezogen sowie ein Ausblick gegeben, worin in Zukunft noch weiterer Forschungs- und Entwicklungsbedarf auf diesem Gebiet stattfinden sollte.
Diese Masterarbeit gibt einen Überblick über Möglichkeiten der objektbasierten Klassifikation von Fernerkundungsdaten. Zu Beginn erfolgt ein Kapitel "State of the Art", worin aktuelle Projekte, die ähnliche Thematiken haben, zusammengefasst werden und danach ein kurzer allgemeiner Überblick über verschiedene Sensoren und Daten, um das verwendete Datenmaterial leichter einordnen zu können. Außerdem werden die verwendeten Softwarepakete bzw. Softwarebibliotheken (IMPACT, ERDAS IMAGINE und RSG-Remote Sensing Software Package Graz), die im Projekt zur Anwendung kommen, kurz vorgestellt. Dann werden die einzelne Bearbeitungsschritte der Fernerkundungsdaten erläutert und verschiedene Ansätze und Algorithmen erklärt sowie deren Ergebnisse miteinander verglichen. Als Bildausschnitte wurden einerseits ein Siedlungsgebiet für die Klassen "Siedlung", "Wiese" und "Trockenwiese" und andererseits ein Gebiet im alpinen Raum für die Klassen "Fels", "Blöße" und "spärlicher Bewuchs" gewählt. Zuletzt werden die Klassifizierungsergebnisse der verschiedenen angewandten Algorithmen gegenübergestellt und daraus Schlussfolgerungen gezogen sowie ein Ausblick gegeben, worin in Zukunft noch weiterer Forschungs- und Entwicklungsbedarf auf diesem Gebiet stattfinden sollte.
Verortung hydrographischer Aufnahmen von kleinräumigen Gewässern mittels GPS und MEMS IMU
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Kurzfassung/Abstract
Zur hydrographischen Vermessung von großen und mittleren Gewässern werden zumeist Sonar- und Echolotsysteme eingesetzt. Für die Verortung von Echolotdaten werden häufig RTK-GPS oder Totalstationen eingesetzt. Für die Verortung von Sonardaten benötigt man zusätzlich die räumliche Orientierung des Sonarsystems.
In dieser Arbeit wurde die Eignung eines kostengünstigen Messsystems basierend auf einem Einfrequenz-GPS-Empfänger und einer MEMS IMU zur Bestimmung der Position und Orientierung eines hydroakustischen Sensors untersucht. Zusätzlich wurde ein Magnetometer zur azimutalen Stabilisierung des Messsystems eingesetzt.
Kostengünstige Inertialsysteme weisen große Fehler auf, die mit Hilfe von der Positions- und Geschwindigkeitsinformation aus GPS-Beobachtungen ausgeglichen werden können. Die Kombination der Sensordaten erfolgte in der institutseigenen Kalman Filter Software. Zur Einbindung der Azimutbeobachtungen mussten neue Algorithmen in die Software eingearbeitet werden. Das Kalman Filter benötigt genaue Rauschparameter zur Charakterisierung der IMU-Qualität; diese Parameter wurden in einem Laborversuch mit Hilfe der Allan Varianz abgeschätzt.
Eine hydrographische Vermessung wurde durchgeführt um reale Messdaten für die weitere Analyse zu erhalten. Die Messdaten wurden in der adaptierten Software prozessiert. Die Analyse der prozessierten Messdaten und der daraus abgeleiteten Gewässersohle zeigte, dass die erwünschte Genauigkeit von 10 cm (1σ) bei einer Wassertiefe von 15m mit dem untersuchten kostengünstigen Messsystem erreichbar ist. Im Zuge der Arbeit wurde jedoch auch Verbesserungspotential identifiziert, vor allem betreffend die Verarbeitung von Daten, die während der Wendemanöver anfallen.
Zur hydrographischen Vermessung von großen und mittleren Gewässern werden zumeist Sonar- und Echolotsysteme eingesetzt. Für die Verortung von Echolotdaten werden häufig RTK-GPS oder Totalstationen eingesetzt. Für die Verortung von Sonardaten benötigt man zusätzlich die räumliche Orientierung des Sonarsystems.
In dieser Arbeit wurde die Eignung eines kostengünstigen Messsystems basierend auf einem Einfrequenz-GPS-Empfänger und einer MEMS IMU zur Bestimmung der Position und Orientierung eines hydroakustischen Sensors untersucht. Zusätzlich wurde ein Magnetometer zur azimutalen Stabilisierung des Messsystems eingesetzt.
Kostengünstige Inertialsysteme weisen große Fehler auf, die mit Hilfe von der Positions- und Geschwindigkeitsinformation aus GPS-Beobachtungen ausgeglichen werden können. Die Kombination der Sensordaten erfolgte in der institutseigenen Kalman Filter Software. Zur Einbindung der Azimutbeobachtungen mussten neue Algorithmen in die Software eingearbeitet werden. Das Kalman Filter benötigt genaue Rauschparameter zur Charakterisierung der IMU-Qualität; diese Parameter wurden in einem Laborversuch mit Hilfe der Allan Varianz abgeschätzt.
Eine hydrographische Vermessung wurde durchgeführt um reale Messdaten für die weitere Analyse zu erhalten. Die Messdaten wurden in der adaptierten Software prozessiert. Die Analyse der prozessierten Messdaten und der daraus abgeleiteten Gewässersohle zeigte, dass die erwünschte Genauigkeit von 10 cm (1σ) bei einer Wassertiefe von 15m mit dem untersuchten kostengünstigen Messsystem erreichbar ist. Im Zuge der Arbeit wurde jedoch auch Verbesserungspotential identifiziert, vor allem betreffend die Verarbeitung von Daten, die während der Wendemanöver anfallen.
Classification of urban areas using airborne full-waveform laser scanning data
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
Airborne Laserscanning Daten werden zunehmend zum Zwecke der Klassifizierung verwendet, wobei sie, vor allem im Bereich mit Pflanzenbewuchs, im Vergleich zu herkömmlichen photogrammetrischen Techniken, bevorzugt zum Einsatz kommen. Diese Masterarbeit beschäftigt sich mit dem Potenzial der Full-Waveform Laserscanning Daten für die Klassifizierung des städtischen Raums. Weitere Information ist aus Full-Waveform ALS Daten ableitbar, wie Amplitude und Breite der Echos, die dann zum Berechnen der Backscatter Cross-section (Streu-Querschnitt) verwendet werden können. Diese physikalischen Eigenschaften zusammen mit abgeleiteten geometrischen Eigenschaften wie normalisiertes Oberflächenmodell, Standardabweichung der Höhe, Geländeneigung und das echo¬basierte Merkmal Anzahl der Echos werden für die Klassifizierung eines Stadtgebiets verwendet. Das Untersuchungsgebiet liegt in der Stadt Wien und vier Klassen sollen unterschieden werden. Diese Klassen sind Gebäude, Bäume, Straßen und Grasflächen. Drei Klassifizierungsverfahren werden eingesetzt: Maximum-Likelihood, Minimum-Distance und Decision Tree. Ein Vergleich der Ergebnisse dieser drei Methoden weist auf das Potenzial der von Full-Waveform Airborne Laserscanning Daten extrahierten Merkmale für die Klassifizierung von städtischem Gebiet hin. Es wird auch gezeigt, dass die Genauigkeit der Ergebnisse der Decision Tree Klassifizierng höher ist als jene der Maximum-Likelihood und der Minimum-Distance. Für die Maximum-Likelihood und Minimum-Distance Klassifizierung war die minimum Amplitude der letzten Echos von geringerer Bedeutung, obwohl es vielleicht für leichte Verbesserung für Straßen und Bäume verantwortlich zeichnet. Die minimale Echo-Breite der letzten Echos hat geringere Bedeutung. Aber es zeigte sich, dass die minimum Amplitude der letzten Echos und der Backscatter-Querschnitt sehr nützlich für Straßen- und Grasflächenklassifizierung mit der Decision Tree Methode sind.
Airborne Laserscanning Daten werden zunehmend zum Zwecke der Klassifizierung verwendet, wobei sie, vor allem im Bereich mit Pflanzenbewuchs, im Vergleich zu herkömmlichen photogrammetrischen Techniken, bevorzugt zum Einsatz kommen. Diese Masterarbeit beschäftigt sich mit dem Potenzial der Full-Waveform Laserscanning Daten für die Klassifizierung des städtischen Raums. Weitere Information ist aus Full-Waveform ALS Daten ableitbar, wie Amplitude und Breite der Echos, die dann zum Berechnen der Backscatter Cross-section (Streu-Querschnitt) verwendet werden können. Diese physikalischen Eigenschaften zusammen mit abgeleiteten geometrischen Eigenschaften wie normalisiertes Oberflächenmodell, Standardabweichung der Höhe, Geländeneigung und das echo¬basierte Merkmal Anzahl der Echos werden für die Klassifizierung eines Stadtgebiets verwendet. Das Untersuchungsgebiet liegt in der Stadt Wien und vier Klassen sollen unterschieden werden. Diese Klassen sind Gebäude, Bäume, Straßen und Grasflächen. Drei Klassifizierungsverfahren werden eingesetzt: Maximum-Likelihood, Minimum-Distance und Decision Tree. Ein Vergleich der Ergebnisse dieser drei Methoden weist auf das Potenzial der von Full-Waveform Airborne Laserscanning Daten extrahierten Merkmale für die Klassifizierung von städtischem Gebiet hin. Es wird auch gezeigt, dass die Genauigkeit der Ergebnisse der Decision Tree Klassifizierng höher ist als jene der Maximum-Likelihood und der Minimum-Distance. Für die Maximum-Likelihood und Minimum-Distance Klassifizierung war die minimum Amplitude der letzten Echos von geringerer Bedeutung, obwohl es vielleicht für leichte Verbesserung für Straßen und Bäume verantwortlich zeichnet. Die minimale Echo-Breite der letzten Echos hat geringere Bedeutung. Aber es zeigte sich, dass die minimum Amplitude der letzten Echos und der Backscatter-Querschnitt sehr nützlich für Straßen- und Grasflächenklassifizierung mit der Decision Tree Methode sind.
Deformationsanalyse auf Basis automatisierter Totalstationsmessungen mit großer Zahl an Objektpunkten
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser, Univ.Ass. Dipl.-Ing. Dr. Alexander Reiterer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser, Univ.Ass. Dipl.-Ing. Dr. Alexander Reiterer
Kurzfassung/Abstract
Modernste Messtechnologien bieten dem (Ingenieur)geodäten die Möglichkeit immer mehr Daten in kürzeren Zeiträumen zu akquirieren. Die Messungen geschehen durch vollautomatische Systeme, welche selbsttätig Punkte am Messobjekt definieren und in der Lage sind diese für Folgemessungen wieder zu identifizieren. Autonome Deformationsmessungen über einen längeren Zeitraum sind dadurch ebenfalls möglich. Eine dieser Technologien wird derzeit an der Technischen Universität Wien entwickelt. Sie basiert auf Messsensoren der terrestrischen Geodäsie (Totalstationen), welche mit bildgebenden Sensoren erweitert wurden, im Speziellen einem Paar modifizierter Leica TCRA1201+. Die Messsensorik erlaubt dadurch eine Überwachung von Messobjekten ohne direkten körperlichen Kontakt in Sichtweiten, die jene übersteigen, die von terrestrischen Laserscannern erreicht werden. Die theoretisch unbegrenzte Menge der aus der automatischen Messung resultierenden Punkte und Beobachtungen macht eine manuelle Weiterverarbeitung in optimaler Zeit unmöglich.
Diese Arbeit beschäftigt sich mit der Realisierung eines automatischen Deformationsanalysesystems für Punktmengen, die in ihrem Umfang leicht den 7-stelligen Bereich erreichen können. Die Analyse kann damit nicht wie bei herkömmlichen, in ihrer Punktmenge überschaubaren Überwachungsnetzen erfolgen. Der Ablauf und die Steuerung der Analyse wird unter Beibehaltung einer größtmöglichen Flexibilität auf die Eigenheiten des Messsystems optimiert. Ein Teil behandelt die effektive Aufbereitung und Verarbeitung der Datenmenge. Ein speziell für diesen Zweck entwickeltes Datenformat erleichtert die Kontrolle und Abarbeitung.
Der größere Teil der Arbeit befasst sich mit der Adaption der Methoden der klassischen Deformationsanalyse an die Punktmessungen bedingt durch vornehmlich räumliche Vorwärtsschnitte. Nach der Ausgleichung der Messungen wird für jeden Messpunkt eine Überprüfung mittels Konfidenzbereich durchgeführt und festgestellt, ob eine Punktstabilität bzw. eine signifikante Punktlageänderung vorliegt.
Die automatisierte Punktmessung erzeugt einen kleinen aber signifikanten Anteil an grob falschen und damit unbrauchbaren Messungen. Die Verwendung von Ausreißertests liefert eine bereinigte Datenmenge.
Das Ergebnis der Analyse ist eine Aussage über ein Vorliegen einer Punktverschiebung und dem dazugehörigen Differenzvektor. Die programmtechnische Realisierung erfolgte durch ein selbst entwickeltes Java-Programm, dessen Kern ein Ausgleichungsprogramm ist.
Modernste Messtechnologien bieten dem (Ingenieur)geodäten die Möglichkeit immer mehr Daten in kürzeren Zeiträumen zu akquirieren. Die Messungen geschehen durch vollautomatische Systeme, welche selbsttätig Punkte am Messobjekt definieren und in der Lage sind diese für Folgemessungen wieder zu identifizieren. Autonome Deformationsmessungen über einen längeren Zeitraum sind dadurch ebenfalls möglich. Eine dieser Technologien wird derzeit an der Technischen Universität Wien entwickelt. Sie basiert auf Messsensoren der terrestrischen Geodäsie (Totalstationen), welche mit bildgebenden Sensoren erweitert wurden, im Speziellen einem Paar modifizierter Leica TCRA1201+. Die Messsensorik erlaubt dadurch eine Überwachung von Messobjekten ohne direkten körperlichen Kontakt in Sichtweiten, die jene übersteigen, die von terrestrischen Laserscannern erreicht werden. Die theoretisch unbegrenzte Menge der aus der automatischen Messung resultierenden Punkte und Beobachtungen macht eine manuelle Weiterverarbeitung in optimaler Zeit unmöglich.
Diese Arbeit beschäftigt sich mit der Realisierung eines automatischen Deformationsanalysesystems für Punktmengen, die in ihrem Umfang leicht den 7-stelligen Bereich erreichen können. Die Analyse kann damit nicht wie bei herkömmlichen, in ihrer Punktmenge überschaubaren Überwachungsnetzen erfolgen. Der Ablauf und die Steuerung der Analyse wird unter Beibehaltung einer größtmöglichen Flexibilität auf die Eigenheiten des Messsystems optimiert. Ein Teil behandelt die effektive Aufbereitung und Verarbeitung der Datenmenge. Ein speziell für diesen Zweck entwickeltes Datenformat erleichtert die Kontrolle und Abarbeitung.
Der größere Teil der Arbeit befasst sich mit der Adaption der Methoden der klassischen Deformationsanalyse an die Punktmessungen bedingt durch vornehmlich räumliche Vorwärtsschnitte. Nach der Ausgleichung der Messungen wird für jeden Messpunkt eine Überprüfung mittels Konfidenzbereich durchgeführt und festgestellt, ob eine Punktstabilität bzw. eine signifikante Punktlageänderung vorliegt.
Die automatisierte Punktmessung erzeugt einen kleinen aber signifikanten Anteil an grob falschen und damit unbrauchbaren Messungen. Die Verwendung von Ausreißertests liefert eine bereinigte Datenmenge.
Das Ergebnis der Analyse ist eine Aussage über ein Vorliegen einer Punktverschiebung und dem dazugehörigen Differenzvektor. Die programmtechnische Realisierung erfolgte durch ein selbst entwickeltes Java-Programm, dessen Kern ein Ausgleichungsprogramm ist.
Nutzung der ISO 19108 (Temporal Schema) im Rahmen des Projektes LISA für die Aufgaben des Monitoring und der gesetzlichen Berichtspflichten
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2011
Betreuer: Dipl.-Ing. Roland Grillmayer
Betreuer: Dipl.-Ing. Roland Grillmayer
Kurzfassung/Abstract
In der Arbeit wurde die Eignung der ISO 19108 (Temporal Schema) für die im Rahmen der gesetzlichen Berichtspflichten definierten Aufgaben des Monitorings im Themenkomplex der Landbedeckung und Landnutzung untersucht. Die Arbeit wurde im Rahmen des Projektes LISA II (Land Information System Österreich) durchgeführt. Für die Aufgaben des Monitorings erweist sich die Abbildung der zeitlichen Dimension in Form von Zeitpunkten, die in der ISO 19108 definiert sind, als praktikabler Ansatz. Die für die Aufgaben des Monitorings erforderliche Veränderungskartierung (Change Detection) erfolgt einerseits basierend auf den Methoden der Fernerkundung und andererseits durch verschiedene Prozessketten, die direkt in einer beliebigen räumlichen Datenbank abgebildet werden können. Basierend auf den Methoden der Fernerkundung werden unveränderte Landbedeckungsobjekte, das sind jene die keinerlei Veränderung aufweisen bzw. unterhalb der definierten MCU (Minimum Change Unit) liegen, detektiert und ausgewiesen. Die tatsächliche Veränderungsart des jeweiligen Landbedeckungsobjektes sowie die von der Veränderung beeinflussten angrenzenden Nachbarn werden in einem zweiten Arbeitsschritt in Form datenbankseitiger Skripte abgeleitet.
In der Arbeit wurde die Eignung der ISO 19108 (Temporal Schema) für die im Rahmen der gesetzlichen Berichtspflichten definierten Aufgaben des Monitorings im Themenkomplex der Landbedeckung und Landnutzung untersucht. Die Arbeit wurde im Rahmen des Projektes LISA II (Land Information System Österreich) durchgeführt. Für die Aufgaben des Monitorings erweist sich die Abbildung der zeitlichen Dimension in Form von Zeitpunkten, die in der ISO 19108 definiert sind, als praktikabler Ansatz. Die für die Aufgaben des Monitorings erforderliche Veränderungskartierung (Change Detection) erfolgt einerseits basierend auf den Methoden der Fernerkundung und andererseits durch verschiedene Prozessketten, die direkt in einer beliebigen räumlichen Datenbank abgebildet werden können. Basierend auf den Methoden der Fernerkundung werden unveränderte Landbedeckungsobjekte, das sind jene die keinerlei Veränderung aufweisen bzw. unterhalb der definierten MCU (Minimum Change Unit) liegen, detektiert und ausgewiesen. Die tatsächliche Veränderungsart des jeweiligen Landbedeckungsobjektes sowie die von der Veränderung beeinflussten angrenzenden Nachbarn werden in einem zweiten Arbeitsschritt in Form datenbankseitiger Skripte abgeleitet.
Qualitätsbestimmung von Weingärten anhand hyperspektraler Fernerkundungsdaten
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2011
Betreuer: Dipl.-Ing. Roland Grillmayer
Betreuer: Dipl.-Ing. Roland Grillmayer
Kurzfassung/Abstract
Im Rahmen der Master Thesis werden Konzepte entwickelt um die Qualität von Weinreben anhand von Hyperspektraldaten zu detektieren. Da die Qualität von Weinreben stark mit dem Chlorophyllgehalt der Weinrebe korreliert, wird eine Reihe von Chlorophyll sensitiven Indizes für die Beantwortung der Fragestellung untersucht. Neben diesen Indizes wird eine Methode untersucht, die auf der Annahme basiert, dass sich der signifikante Anstieg im nahen Infrarot Bereich einer Weinrebe guter Qualität bei einer Weinrebe schlechterer Qualität in Richtung des Rot Bereichs verschiebt. Des Weiteren werden die Vorteile von Multisensor Plattformen durch die Kombination von Hyperspektral und Laserscanner Daten für die Beantwortung der Fragestellung aufgezeigt.
Im Rahmen der Master Thesis werden Konzepte entwickelt um die Qualität von Weinreben anhand von Hyperspektraldaten zu detektieren. Da die Qualität von Weinreben stark mit dem Chlorophyllgehalt der Weinrebe korreliert, wird eine Reihe von Chlorophyll sensitiven Indizes für die Beantwortung der Fragestellung untersucht. Neben diesen Indizes wird eine Methode untersucht, die auf der Annahme basiert, dass sich der signifikante Anstieg im nahen Infrarot Bereich einer Weinrebe guter Qualität bei einer Weinrebe schlechterer Qualität in Richtung des Rot Bereichs verschiebt. Des Weiteren werden die Vorteile von Multisensor Plattformen durch die Kombination von Hyperspektral und Laserscanner Daten für die Beantwortung der Fragestellung aufgezeigt.
Erstellen eines DOLCE-basierten ontologischen Modells für die Gültigkeit von verkehrlichen Maßnahmen
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2011
Betreuer: Mag. Thomas Woltron
Betreuer: Mag. Thomas Woltron
Kurzfassung/Abstract
Diese Arbeit behandelt das Design eines ontologischen Schemas für die Gültigkeit von verkehrlichen Maßnahmen basierend auf der Top-Level-Ontologie DOLCE. Es startet mit grundlegenden Informationen über Ontologie. Dann wird das Konzept der Top-level-Ontologien und unterschiedliche Beispiele für Top-level-Ontologien beschrieben und verglichen. Unterschiedliche Methoden um ein ontologisches Schema zu entwerfen werden beschrieben und Argumente für die gewählte Methode gegeben. Verkehrliche Maßnahmen und die Bedeutung ihrer Gültigkeit werden definiert und die Kategorien der Gültigkeit, welche für das formale Modellieren benützt werden, werden beschrieben. Das ontologische Schema wird entsprechend der Design Methode basierend auf DOLCE erstellt und seine Funktionalität geprüft.
Diese Arbeit behandelt das Design eines ontologischen Schemas für die Gültigkeit von verkehrlichen Maßnahmen basierend auf der Top-Level-Ontologie DOLCE. Es startet mit grundlegenden Informationen über Ontologie. Dann wird das Konzept der Top-level-Ontologien und unterschiedliche Beispiele für Top-level-Ontologien beschrieben und verglichen. Unterschiedliche Methoden um ein ontologisches Schema zu entwerfen werden beschrieben und Argumente für die gewählte Methode gegeben. Verkehrliche Maßnahmen und die Bedeutung ihrer Gültigkeit werden definiert und die Kategorien der Gültigkeit, welche für das formale Modellieren benützt werden, werden beschrieben. Das ontologische Schema wird entsprechend der Design Methode basierend auf DOLCE erstellt und seine Funktionalität geprüft.
Simulation von Zuverlässigkeiten
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2011
Betreuer: o.Univ.Prof. Dr. Fritz K. Brunner
Betreuer: o.Univ.Prof. Dr. Fritz K. Brunner
Kurzfassung/Abstract
Ziel der Arbeit war die Simulation der Zuverlässigkeit von verschiedenen geodätischen Netzen. Dazu wird anfangs die Theorie der Zuverlässigkeit und die Art und Weise aller Berechnungen erläutert. Anschließend werden die Ergebnisse der durchgeführten Simulationen vorgestellt, wobei Redundanzanteile, Minimal Detectable Bias und äußere Zuverlässigkeit berechnet wurden. Begonnen wurde mit einer Einzelpunkteinschaltung, wobei der Frage nachgegangen werden sollte, welche Rolle die Lage eines zusätzlich gemessenen Fernziels spielt. Die Simulation ergab, dass bei Entfernungen ab einem Kilometer dieser Einfluss nur mehr wenig ins Gewicht fällt. Als zweites Beispiel wurde ein Polygonzug mit beidseitigen Koordinaten- und Richtungsanschluss mit einigen Hundert Metern Länge gewählt. Die Ergebnisse von verschiedenen Varianten wurden verglichen und diskutiert. Den Abschluss der Arbeit bildet die Simulation der Zuverlässigkeitsmaße eines großen Tunnelnetzes, wobei hier auch eine Durchschlagsprognose abgegeben wurde. Bei derartigen Projekten geschieht die obertägige Netzmessung meist mit satellitengestützten Positionierungssystemen, diese liefern korrelierte Ergebnisse. Ein neuer Ansatz des polnischen Professors W. Prószynski wurde vorgestellt und durchgeführt, mit dem diese Korrelationen in die Berechnung mit einbezogen werden können.
Ziel der Arbeit war die Simulation der Zuverlässigkeit von verschiedenen geodätischen Netzen. Dazu wird anfangs die Theorie der Zuverlässigkeit und die Art und Weise aller Berechnungen erläutert. Anschließend werden die Ergebnisse der durchgeführten Simulationen vorgestellt, wobei Redundanzanteile, Minimal Detectable Bias und äußere Zuverlässigkeit berechnet wurden. Begonnen wurde mit einer Einzelpunkteinschaltung, wobei der Frage nachgegangen werden sollte, welche Rolle die Lage eines zusätzlich gemessenen Fernziels spielt. Die Simulation ergab, dass bei Entfernungen ab einem Kilometer dieser Einfluss nur mehr wenig ins Gewicht fällt. Als zweites Beispiel wurde ein Polygonzug mit beidseitigen Koordinaten- und Richtungsanschluss mit einigen Hundert Metern Länge gewählt. Die Ergebnisse von verschiedenen Varianten wurden verglichen und diskutiert. Den Abschluss der Arbeit bildet die Simulation der Zuverlässigkeitsmaße eines großen Tunnelnetzes, wobei hier auch eine Durchschlagsprognose abgegeben wurde. Bei derartigen Projekten geschieht die obertägige Netzmessung meist mit satellitengestützten Positionierungssystemen, diese liefern korrelierte Ergebnisse. Ein neuer Ansatz des polnischen Professors W. Prószynski wurde vorgestellt und durchgeführt, mit dem diese Korrelationen in die Berechnung mit einbezogen werden können.
Integration of 3D GIS into urban service processes
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2011
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
In winter 2010 the company Intergraph launched the add-on called "GeoMedia3D" for its product suite "GeoMedia Professional". The tool was tested according to its usability for processes within urban services. Processes, similar to current urban working processes, were simulated. Thus, the test covered topics like "working with area, line and point features", "visualizations" and "data import and export". The thesis concludes with a critical evaluation of functionalities and a suggestion for future improvements of the new add-on.
The master thesis is divided into two main parts: a theoretical part that describes application areas, (using 3D-models respectively 3-dimensional presentations) and a practical part showing an evaluation of the tool "GeoMedia3D" (this includes generating a workflow for integrating and visualizing example data of the city government of Klagenfurt and the evaluation of the usability of the add-on for urban processes).The theoretical part, which serves as guidance to readers, describes application areas of a 3D GIS and 3-dimensional presentations. The main focus was targeted to application areas that occur within urban services (e.g. urban planning, environmental & infrastructural planning and tourism).
GeoMedia3D was evaluated according to its usability for urban processes (import of existing data, observing basic functionalities, topics regarding the issue "analysis", "visualization", "flyover" and "data manipulation").
The functionalities were tested during working with area features, line features and point features.
The results can be summarized as follows:
In winter 2010 the company Intergraph launched the add-on called "GeoMedia3D" for its product suite "GeoMedia Professional". The tool was tested according to its usability for processes within urban services. Processes, similar to current urban working processes, were simulated. Thus, the test covered topics like "working with area, line and point features", "visualizations" and "data import and export". The thesis concludes with a critical evaluation of functionalities and a suggestion for future improvements of the new add-on.
The master thesis is divided into two main parts: a theoretical part that describes application areas, (using 3D-models respectively 3-dimensional presentations) and a practical part showing an evaluation of the tool "GeoMedia3D" (this includes generating a workflow for integrating and visualizing example data of the city government of Klagenfurt and the evaluation of the usability of the add-on for urban processes).The theoretical part, which serves as guidance to readers, describes application areas of a 3D GIS and 3-dimensional presentations. The main focus was targeted to application areas that occur within urban services (e.g. urban planning, environmental & infrastructural planning and tourism).
GeoMedia3D was evaluated according to its usability for urban processes (import of existing data, observing basic functionalities, topics regarding the issue "analysis", "visualization", "flyover" and "data manipulation").
The functionalities were tested during working with area features, line features and point features.
The results can be summarized as follows:
- Demonstration of the variety of application areas for 3D presentations (state of the art)
- Overview about potential 3D application areas for urban services
- Evaluation of detailed 3D scenarios for selected urban applications (based on GeoMedia3D)
- Opening of a 3D map window and thus view the data in three dimensions
- Conversion from a 2D map window into a 3D map window and vice versa
- Navigation within a 3D map window with six degrees
- Management and visualization of surface generated from GeoMedia Grid, GeoMedia Terrain and Skyline TerraBuilder
- Draping imagery, feature or vector data over a 3D surface
- Flyover for a defined route (as well as editing and exporting such flyovers) and
- Import of CityGML and Google 3D files
Potential Contribution of Hazus-MH to Flood Risk Assessment in the Context of European Flood Directive
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2011
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Floods are one of the deadliest hazards and affect the most people when they occur. Because of the increasing population in the floodplains and the nature cataclysms, the number of casualties and the cost of damage from flooding increases every year. For that reason the European member states enacted the European Flood Directive. One of its requirements is to deliver flood hazard and risk maps. In this thesis, the European flood mapping requirements and best practices are described. This master’s thesis primarily focuses on the Hazus-MH tool, which was successfully used in the United States for flood mapping needs. The main problem is that Hazus was created only for use in the U.S., and existing administrative limitations presents a challenge for users from other countries. The challenge of this research is to create implementation that would enable a Hazus user to perform flood analysis for Europe by using the same methodology. To this end, this thesis analyzed the default Hazus methodology of flood assessment in detail and provides the overview and evaluation of flood hazard and inventory data taken from the Hazus-MH tool. As implementation, it was decided to create the new study region in Europe, based on standardized European administrative units. This task was achieved by adding new geographical regions to the default Hazus datasets.The essential input data parameters and requirements are also described. The implementation’s testing and validation was carried out by applying it to a local Austrian case study. The tests showed a successful non-U.S. dataset integration in the Hazus tool and affirmed the result’s dependency on the quality of input data. Additionally, this research is also intended to assist communities that have no financial support but that want to perform flood assessments at the local level. The additional tools and datasets, together with Hazus, as freely available tool would enable communities to perform their own flood assessments with ease.
Floods are one of the deadliest hazards and affect the most people when they occur. Because of the increasing population in the floodplains and the nature cataclysms, the number of casualties and the cost of damage from flooding increases every year. For that reason the European member states enacted the European Flood Directive. One of its requirements is to deliver flood hazard and risk maps. In this thesis, the European flood mapping requirements and best practices are described. This master’s thesis primarily focuses on the Hazus-MH tool, which was successfully used in the United States for flood mapping needs. The main problem is that Hazus was created only for use in the U.S., and existing administrative limitations presents a challenge for users from other countries. The challenge of this research is to create implementation that would enable a Hazus user to perform flood analysis for Europe by using the same methodology. To this end, this thesis analyzed the default Hazus methodology of flood assessment in detail and provides the overview and evaluation of flood hazard and inventory data taken from the Hazus-MH tool. As implementation, it was decided to create the new study region in Europe, based on standardized European administrative units. This task was achieved by adding new geographical regions to the default Hazus datasets.The essential input data parameters and requirements are also described. The implementation’s testing and validation was carried out by applying it to a local Austrian case study. The tests showed a successful non-U.S. dataset integration in the Hazus tool and affirmed the result’s dependency on the quality of input data. Additionally, this research is also intended to assist communities that have no financial support but that want to perform flood assessments at the local level. The additional tools and datasets, together with Hazus, as freely available tool would enable communities to perform their own flood assessments with ease.
Vertikaler Refraktionseffekt - Messung und Anwendung
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2010
Betreuer: o.Univ.Prof. Dr. Fritz K. Brunner
Betreuer: o.Univ.Prof. Dr. Fritz K. Brunner
Kurzfassung/Abstract
In dieser Masterarbeit wurde der vertikale Refraktionseffekt in der Zenitwinkelmessung experimentell untersucht. Die Feldexperimente fanden zum einen über einer, im Verhältnis zur darüberliegenden Luftmasse, wärmeren Oberfläche (Maisacker - Reininghausgründe/Graz) im Mai und zum anderen über einer kalten Schnee- und Eisfläche (Schladminger Gletscher/Dachstein) im September statt. Mit der Methode der gegenseitig-gleichzeitigen Zenitwinkelmessung konnten die Fehlereinflüsse in der trigonometrischen Höhenmessung aufgrund der terrestrischen Refraktion mit präzisen Tachymetern (3 cc) bestimmt werden. Die stationsweise berechneten Refraktionskoeffizienten, würden im Messzeitraum von 14:00 bis 19:30, in den Höhenunterschieden Variationen bis zu 7 mm (bei S=100 m) verursachen. Die Lichtstrahlkrümmung ist proportional zum vertikalen Temperaturgradienten in der Luft. Aus diesem Grund wurde zur Verifizierung der Winkelmessungen der Temperaturgradient, mit an einem Mast befestigten Thermoelementen, gemessen. Die Gegenüberstellung der Gradienten, direkt gemessen mit den Thermoelementen und berechnet aus der Zenitwinkelmessung, deutet auf eine Beeinflussung der Thermoelementmessungen durch das am Temperaturmast befestigte Gehäuse des Dataloggers hin. Weiters konnte mit den gemessenen Refraktionswerten der fühlbare Wärmestrom, der den Wärmeaustausch zwischen Erdoberfläche und Atmosphäre beschreibt, berechnet werden. Das dazu verwendete theoretische Modell, wurde von Brunner entwickelt (Brunner, F.K., 1982:
„Determination of line averages of sensible heat flux using an optical method", Boundary Layer Meteorology S. 193-207, Dordrecht-Boston).
Parallel zur Zenitwinkelmessung wurde der fühlbare Wärmestrom mit einem Ultraschallanemometer nach der Eddy-Kovarianz-Methode gemessen. Die Gegenüberstellung der Ergebnisse beider Methoden zeigt eine gute Übereinstimmung bei mikrometeorologisch labilen oder neutralen Bedingungen. Nach der Vorzeichenumkehr des Austauschstromes vom Positiven ins Negative weichen die Werte stärker voneinander ab. Es soll beachtet werden, dass die Resultate der Zenitwinkelmessungen Linienmittelwerte des fühlbaren Wärmestromes angeben.
In dieser Masterarbeit wurde der vertikale Refraktionseffekt in der Zenitwinkelmessung experimentell untersucht. Die Feldexperimente fanden zum einen über einer, im Verhältnis zur darüberliegenden Luftmasse, wärmeren Oberfläche (Maisacker - Reininghausgründe/Graz) im Mai und zum anderen über einer kalten Schnee- und Eisfläche (Schladminger Gletscher/Dachstein) im September statt. Mit der Methode der gegenseitig-gleichzeitigen Zenitwinkelmessung konnten die Fehlereinflüsse in der trigonometrischen Höhenmessung aufgrund der terrestrischen Refraktion mit präzisen Tachymetern (3 cc) bestimmt werden. Die stationsweise berechneten Refraktionskoeffizienten, würden im Messzeitraum von 14:00 bis 19:30, in den Höhenunterschieden Variationen bis zu 7 mm (bei S=100 m) verursachen. Die Lichtstrahlkrümmung ist proportional zum vertikalen Temperaturgradienten in der Luft. Aus diesem Grund wurde zur Verifizierung der Winkelmessungen der Temperaturgradient, mit an einem Mast befestigten Thermoelementen, gemessen. Die Gegenüberstellung der Gradienten, direkt gemessen mit den Thermoelementen und berechnet aus der Zenitwinkelmessung, deutet auf eine Beeinflussung der Thermoelementmessungen durch das am Temperaturmast befestigte Gehäuse des Dataloggers hin. Weiters konnte mit den gemessenen Refraktionswerten der fühlbare Wärmestrom, der den Wärmeaustausch zwischen Erdoberfläche und Atmosphäre beschreibt, berechnet werden. Das dazu verwendete theoretische Modell, wurde von Brunner entwickelt (Brunner, F.K., 1982:
„Determination of line averages of sensible heat flux using an optical method", Boundary Layer Meteorology S. 193-207, Dordrecht-Boston).
Parallel zur Zenitwinkelmessung wurde der fühlbare Wärmestrom mit einem Ultraschallanemometer nach der Eddy-Kovarianz-Methode gemessen. Die Gegenüberstellung der Ergebnisse beider Methoden zeigt eine gute Übereinstimmung bei mikrometeorologisch labilen oder neutralen Bedingungen. Nach der Vorzeichenumkehr des Austauschstromes vom Positiven ins Negative weichen die Werte stärker voneinander ab. Es soll beachtet werden, dass die Resultate der Zenitwinkelmessungen Linienmittelwerte des fühlbaren Wärmestromes angeben.
Erstellung eines modernen Koordinatentransformations- und Abbildungsmoduls
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2010
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Moderne geodätische Raumverfahren wie GNSS, VLBI, SLR oder DORIS erlauben die präzise Realisierung von 3D-Referenzsystemen. Diese Referenzsysteme bilden die Grundlage für die Positionsbestimmung und Navigation auf der Erde. Die Realisierung eines Systems durch Fixpunkte nennt man Referenzrahmen. Im Fall eines erdfesten Referenzrahmens verwendet man so genannte Fundamentalstationen, welche über eine oder mehrere Raumtechniken für die Bestimmung der Stationskoordinaten und Geschwindigkeiten verfügen. Allgemein hängt die Genauigkeit der Positionsbestimmung einerseits vom Messverfahren und andererseits von der Qualität des zugrundeliegenden Koordinatenrahmens ab.
Grundsätzlich unterscheidet man zwischen globalen, kontinentalen und regionalen terrestrischen Referenzsystemen. Wichtige globale Systeme sind das International Terrestrial Reference System (ITRS) sowie das Word Geodetic System 1984 (WGS84). Das WGS84 bildet das Referenzsystem des Satellitennavigationssystems GPS. Für den europäischen Kontinent wurde im Jahr 1989 das European Terrestrial Reference System (ETRS) definiert. Als regionale Systeme bezeichnet man beispielsweise die Referenzsysteme einzelner Staaten. Österreich verwendet das Be¬zugssystem MGI, welches ursprünglich aus dem 19. Jahrhundert stammt, wobei die Realisierung heute durch modernste Messmethoden erfolgt.
Für viele wissenschaftliche und praktische Anwendungen in der Geodäsie stellt sich die Aufgabe, Punkte in unterschiedlichen Koordinatensystemen auszudrücken. Dieser Wechsel zwischen den zuvor beschriebenen Referenzsystemen erfolgt mit Hilfe geeigneter Koordinatentransformationen. Das Ziel dieser Arbeit ist es nun, ein modernes Koordinatentransformations- und Abbildungsmodul zu erstellen. Konkret wird die Transformation zwischen globalen oder kontinentalen Referenzrahmen (zum Beispiel: ITRFyy, ITRFyy) und einem regionalen geodätischen Datum (zum Beispiel: MGI) ermöglicht. Des Weiteren erlaubt die Software zwischen den Abbildungskoordinaten Gauß-Krüger, UTM und Lambert umzurechnen und berücksichtigt dabei implizit Datumsübergänge. Um dem Nutzer die Möglichkeit zu geben auch eigene Parameter einer räumlichen Ähnlichkeitstransformation zu bestimmen, erlaubt das Programm eine überbestimmte Ableitung von Transformationsparametern mittels Passpunkten. Außerdem wird mit Hilfe geeigneter Geoid-Undulationsmodelle die Interpolation orthometrischer Höhen realisiert.
Moderne geodätische Raumverfahren wie GNSS, VLBI, SLR oder DORIS erlauben die präzise Realisierung von 3D-Referenzsystemen. Diese Referenzsysteme bilden die Grundlage für die Positionsbestimmung und Navigation auf der Erde. Die Realisierung eines Systems durch Fixpunkte nennt man Referenzrahmen. Im Fall eines erdfesten Referenzrahmens verwendet man so genannte Fundamentalstationen, welche über eine oder mehrere Raumtechniken für die Bestimmung der Stationskoordinaten und Geschwindigkeiten verfügen. Allgemein hängt die Genauigkeit der Positionsbestimmung einerseits vom Messverfahren und andererseits von der Qualität des zugrundeliegenden Koordinatenrahmens ab.
Grundsätzlich unterscheidet man zwischen globalen, kontinentalen und regionalen terrestrischen Referenzsystemen. Wichtige globale Systeme sind das International Terrestrial Reference System (ITRS) sowie das Word Geodetic System 1984 (WGS84). Das WGS84 bildet das Referenzsystem des Satellitennavigationssystems GPS. Für den europäischen Kontinent wurde im Jahr 1989 das European Terrestrial Reference System (ETRS) definiert. Als regionale Systeme bezeichnet man beispielsweise die Referenzsysteme einzelner Staaten. Österreich verwendet das Be¬zugssystem MGI, welches ursprünglich aus dem 19. Jahrhundert stammt, wobei die Realisierung heute durch modernste Messmethoden erfolgt.
Für viele wissenschaftliche und praktische Anwendungen in der Geodäsie stellt sich die Aufgabe, Punkte in unterschiedlichen Koordinatensystemen auszudrücken. Dieser Wechsel zwischen den zuvor beschriebenen Referenzsystemen erfolgt mit Hilfe geeigneter Koordinatentransformationen. Das Ziel dieser Arbeit ist es nun, ein modernes Koordinatentransformations- und Abbildungsmodul zu erstellen. Konkret wird die Transformation zwischen globalen oder kontinentalen Referenzrahmen (zum Beispiel: ITRFyy, ITRFyy) und einem regionalen geodätischen Datum (zum Beispiel: MGI) ermöglicht. Des Weiteren erlaubt die Software zwischen den Abbildungskoordinaten Gauß-Krüger, UTM und Lambert umzurechnen und berücksichtigt dabei implizit Datumsübergänge. Um dem Nutzer die Möglichkeit zu geben auch eigene Parameter einer räumlichen Ähnlichkeitstransformation zu bestimmen, erlaubt das Programm eine überbestimmte Ableitung von Transformationsparametern mittels Passpunkten. Außerdem wird mit Hilfe geeigneter Geoid-Undulationsmodelle die Interpolation orthometrischer Höhen realisiert.
Radiometric calibration of airborne laser scanner data
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Airborne Laserscanning ist wegen seiner Fähigkeit die Struktur von Oberflächen genau und dicht abzutasten in den letzten Jahren eine Standard-Technologie für topographische Datengewinnung geworden. Für die Analyse und Klassifizierung der Topographie werden typischerweise geometrische aus der 3D Punktwolke abgeleitete Kriterien verwendet. Darüber hinaus liefern ALS Systeme die physikalischen Beobachtungen Amplitude und (im Falle von Full Waveform ALS Systemen) Echoweite für jedes Echo zusätzlich zu seiner 3D Position. Diese, die zurück gestreute Energie beschreibenden Beobachtungen, beinhalten Informationen über die Rückstreueigenschaften der beleuchteten Oberflächen. Amplitude und Echoweite sind jedoch von vielen verschiedenen Faktoren abhängig, wie zum Beispiel der Distanz zwischen Sensor und Oberfläche, der Orientierung der Oberfläche relativ zum Sensor oder der atmosphärischen Dämpfung. Aufgrund des Mangels an Kalibrierungsstandards und -methoden ist das volle Potential dieser physikalischen Beobachtungen noch nicht ausgeschöpft. Die vorliegende Arbeit versucht daher dieser physikalischen Beobachtungen mittels radiometrischer Kalibrierung in
physikalisch interpretierbare Werte umzuwandeln.
Basierend auf In-situ Flächen (z.B. Oberflächen im Projektgebiet) als externe Referenzflächen wurde eine absolute radiometrische Kalibrierungsmethode für ALS Daten entwickelt. Der Prototyp eines von der Firma Riegl Research Forschungsgesellschaft mbH zur Verfügung gestellten Reflektometers wurde getestet um Evaluierungssoftware und Regeln für den praktischen Gebrauch zu erstellen. Zusammen mit Spectralon Reflektivitätsstandards wurde das Reflektometer anschließend verwendet um die Rückstreueigenschaften dieser In-situ Flächen unabhängig vom ALS Flug zu bestimmen. Basierend auf diesen In-situ Referenzzielen wird eine Kalibrierungskonstante berechnet, die dann die radiometrische Kalibrierung des gesamten ALS Datensatzes ermöglicht. Kalibrierungsresultate von zwei verschiedenen, das gleiche Testgebiet abdeckenden Datensätzen zeigen, dass die vorgeschlagene Methode nicht nur wiederholbare sondern auch absolute Werte zu produzieren ermöglicht. Die relative Analyse von überlappenden Flugstreifen zeigt weiters, dass die radiometrischen Differenzen reduziert, d.h. vergleichbare Werte unabhängig von der Aufnahmegeometrie erreicht werden können. Die auf Reflektivitätsmessungen von Kontrollflächen basierende absolute Analyse zeigt die Fähigkeit der Methode absolute radiometrische Werte zu erzeugen. Das diffuse Reflektionsmaß einer annähernd homogenen Oberfläche kann mit einem Variationskoeffizienten von ca. 14 % bestimmt werden, d.h. die Standardabweichung ist ca. 14 % des mittleren Reflektivitätswerts.
Es wird erwartet, dass die radiometrische Kalibrierung von ALS Daten Klassifizierung und Monitoring von Oberflächen, die in der Wellenlänge des ALS Systems unterscheidbar sind, unterstützt. Wegen des absoluten Charakters der präsentierten Kalibrierungsmethode wird die auf diesen radiometrisch kalibrierten Werten basierende Klassifizierung unabhängig von Sensor- und Flugparametern. Außerdem ermöglicht sie im Fall von kontinuierlich wiederholten ALS Kampagnen eines bestimmten Gebiets den Status verschiedener Oberflächen zu dokumentieren. Folglich ist auch die Detektion von Veränderungen möglich.
Airborne Laserscanning ist wegen seiner Fähigkeit die Struktur von Oberflächen genau und dicht abzutasten in den letzten Jahren eine Standard-Technologie für topographische Datengewinnung geworden. Für die Analyse und Klassifizierung der Topographie werden typischerweise geometrische aus der 3D Punktwolke abgeleitete Kriterien verwendet. Darüber hinaus liefern ALS Systeme die physikalischen Beobachtungen Amplitude und (im Falle von Full Waveform ALS Systemen) Echoweite für jedes Echo zusätzlich zu seiner 3D Position. Diese, die zurück gestreute Energie beschreibenden Beobachtungen, beinhalten Informationen über die Rückstreueigenschaften der beleuchteten Oberflächen. Amplitude und Echoweite sind jedoch von vielen verschiedenen Faktoren abhängig, wie zum Beispiel der Distanz zwischen Sensor und Oberfläche, der Orientierung der Oberfläche relativ zum Sensor oder der atmosphärischen Dämpfung. Aufgrund des Mangels an Kalibrierungsstandards und -methoden ist das volle Potential dieser physikalischen Beobachtungen noch nicht ausgeschöpft. Die vorliegende Arbeit versucht daher dieser physikalischen Beobachtungen mittels radiometrischer Kalibrierung in
physikalisch interpretierbare Werte umzuwandeln.
Basierend auf In-situ Flächen (z.B. Oberflächen im Projektgebiet) als externe Referenzflächen wurde eine absolute radiometrische Kalibrierungsmethode für ALS Daten entwickelt. Der Prototyp eines von der Firma Riegl Research Forschungsgesellschaft mbH zur Verfügung gestellten Reflektometers wurde getestet um Evaluierungssoftware und Regeln für den praktischen Gebrauch zu erstellen. Zusammen mit Spectralon Reflektivitätsstandards wurde das Reflektometer anschließend verwendet um die Rückstreueigenschaften dieser In-situ Flächen unabhängig vom ALS Flug zu bestimmen. Basierend auf diesen In-situ Referenzzielen wird eine Kalibrierungskonstante berechnet, die dann die radiometrische Kalibrierung des gesamten ALS Datensatzes ermöglicht. Kalibrierungsresultate von zwei verschiedenen, das gleiche Testgebiet abdeckenden Datensätzen zeigen, dass die vorgeschlagene Methode nicht nur wiederholbare sondern auch absolute Werte zu produzieren ermöglicht. Die relative Analyse von überlappenden Flugstreifen zeigt weiters, dass die radiometrischen Differenzen reduziert, d.h. vergleichbare Werte unabhängig von der Aufnahmegeometrie erreicht werden können. Die auf Reflektivitätsmessungen von Kontrollflächen basierende absolute Analyse zeigt die Fähigkeit der Methode absolute radiometrische Werte zu erzeugen. Das diffuse Reflektionsmaß einer annähernd homogenen Oberfläche kann mit einem Variationskoeffizienten von ca. 14 % bestimmt werden, d.h. die Standardabweichung ist ca. 14 % des mittleren Reflektivitätswerts.
Es wird erwartet, dass die radiometrische Kalibrierung von ALS Daten Klassifizierung und Monitoring von Oberflächen, die in der Wellenlänge des ALS Systems unterscheidbar sind, unterstützt. Wegen des absoluten Charakters der präsentierten Kalibrierungsmethode wird die auf diesen radiometrisch kalibrierten Werten basierende Klassifizierung unabhängig von Sensor- und Flugparametern. Außerdem ermöglicht sie im Fall von kontinuierlich wiederholten ALS Kampagnen eines bestimmten Gebiets den Status verschiedener Oberflächen zu dokumentieren. Folglich ist auch die Detektion von Veränderungen möglich.
Evaluation of Environmental Stresses on GNSS-Monuments
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Kurzfassung/Abstract
Ziel dieser Arbeit ist, vier verschiedene Konstruktionen von GNSS-Antennenmonumenten auf Deformation aufgrund von Solarstrahlung, Wind und Temperaturvariationen zu untersuchen. Dieses Projekt wurde von Lantmäteriet, dem schwedischen Bundesamt für Vermessungswesen, in Auftrag gegeben und in Kooperation zwischen der technischen Universität Wien und der Chalmers University of Technology durchgeführt. Im ersten Abschnitt wurden die zu erwartenden Verformungen mithilfe des FEMSimulationsprogrammes _Autodesk Robot_ berechnet. Dabei ergaben sich Maximalwerte von 1.4mm aufgrund der Windbelastung, 1.2mm aufgrund von Solarstrahlung und 0.8mm aufgrund von thermaler Ausdehnung. Im zweiten Abschnitt wurde jeweils ein Modell der vier Konstruktionen am Onsala Space Observatory in Schweden aufgebaut und in einem dreimonatigen Messprogramm untersucht. Für die Messungen wurden Leica TS30 Totalstationen verwendet. Die Messdaten ergaben Verschiebungen der Mastspitzen von bis zu 4 mm. Eine der vier Konstruktionen wurde von Lantmäteriet vorgeschlagen, welche auch die geringsten Deformationen von horizontal und vertikal weniger als einem Millimeter ergab.
Ziel dieser Arbeit ist, vier verschiedene Konstruktionen von GNSS-Antennenmonumenten auf Deformation aufgrund von Solarstrahlung, Wind und Temperaturvariationen zu untersuchen. Dieses Projekt wurde von Lantmäteriet, dem schwedischen Bundesamt für Vermessungswesen, in Auftrag gegeben und in Kooperation zwischen der technischen Universität Wien und der Chalmers University of Technology durchgeführt. Im ersten Abschnitt wurden die zu erwartenden Verformungen mithilfe des FEMSimulationsprogrammes _Autodesk Robot_ berechnet. Dabei ergaben sich Maximalwerte von 1.4mm aufgrund der Windbelastung, 1.2mm aufgrund von Solarstrahlung und 0.8mm aufgrund von thermaler Ausdehnung. Im zweiten Abschnitt wurde jeweils ein Modell der vier Konstruktionen am Onsala Space Observatory in Schweden aufgebaut und in einem dreimonatigen Messprogramm untersucht. Für die Messungen wurden Leica TS30 Totalstationen verwendet. Die Messdaten ergaben Verschiebungen der Mastspitzen von bis zu 4 mm. Eine der vier Konstruktionen wurde von Lantmäteriet vorgeschlagen, welche auch die geringsten Deformationen von horizontal und vertikal weniger als einem Millimeter ergab.
Externe troposphärische Korrekturen in der geodätischen VLBI
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2011
Betreuer: Ass.Prof. Dipl. Ing. Dr. Johannes Böhm
Betreuer: Ass.Prof. Dipl. Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Die Modellierung der troposphärischen Laufzeitverzögerungen von Mikrowellen, wie sie in der Very Long Baseline Interferometry (VLBI) oder den Global Navigation Satellite Systems (GNSS) empfangen werden, ist ein kritischer Faktor für die Genauigkeit dieser geodätischen Weltraumverfahren. In der vorliegenden Arbeit wurden fünf verschiedene Modellansätze miteinander verglichen, indem sie bei der Auswertung der VLBI Beobachtungen einer speziellen 15-tägigen Kampagne im August 2008 verwendet wurden. Als Genauigkeitskriterium diente die Wiederholbarkeit von Basislinienlängen, geschätzt aus 15 täglichen Lösungen. Die Analyse mit der Vienna VLBI Software (VieVS) wurde insofern geändert, als die troposphärischen Laufzeitverzögerungen erstmals aus externen Datensätzen eingelesen wurden. Diese Vorgehensweise ermöglichte das Anbringen von Laufzeitverzögerungen aus direktem Raytracing, und sie erlaubt in Zukunft die Austauschbarkeit von Modelldaten verschiedener Analysezentren.
Im ersten Ansatz wurden hydrostatische Laufzeitverzögerungen als Produkt von hydrostatischen Laufzeitverzögerungen in Ζenitrichtung (Zenitdelays) aus 6-stündigen Daten des European Centre for Medium-Range Weather Forecasts (ECMWF) mit den hydrostatischen Vienna Mapping Functions 1 (VMF1, ebenfalls basierend auf 6-stündigen Daten des ECMWF) gebildet, und feuchte Laufzeitverzögerungen in Zenitrichtung wurden in VieVS mit der feuchten VMF1 geschätzt. Im zweiten Ansatz wurden zusätzlich bereits a priori Laufzeitverzögerungen aufgrund des feuchten Anteils der Troposphäre addiert, ebenfalls basierend auf Daten des ECMWF, die Schätzung der restlichen Zenitdelays erfolgte wiederum mit der feuchten VMF1. Das dritte Modell unterschied sich insofern vom ersten Ansatz, als die hydrostatischen Laufzeitverzögerungen in Zenitrichtung aus tatsächlich an der Station gemessenen Druckwerten (für jede Beobachtung vorhanden) berechnet wurden. Im vierten Ansatz wurden hydrostatische Zenitdelays aus Druckwerten des empirischen Modells Global Pressure and Temperature (GPT) berechnet, und sowohl deren Projektion als auch die Schätzung der feuchten Zenitdelays erfolgte mit den empirischen Global Mapping Functions (GMF). Im fünften Ansatz schließlich wurde für jede Beobachtung eine eigene Strahlverfolgung (Raytracing) durch hochaufgelöste Daten des ECMWF berechnet, um die Laufzeitverzögerungen zu erhalten.
Basierend auf den Wiederholbarkeiten der Basislinienlängen kann man die Ergebnisse folgendermaßen zusammenfassen: Raytracing bestimmt die Laufzeitverzögerungen entweder sehr gut oder sehr schlecht, denn 44% der Basislinienlängen werden damit am besten modelliert, 33% allerdings am schlechtesten. Trotz der geringen Unterschiede der restlichen, auf tatsächlichen Wetterdaten basierenden Modelle, liefern doch die Druckmessungen an der Station bessere Ergebnisse als jene Ansätze, bei denen hydrostatische Zenitdelays aus 6-stündigen Daten des ECMWF berechnet worden sind. 33 von 55 Basislinien erreichen ohne Berücksichtigung von Raytracing mit den Druckmessungen an der Station die besten Wiederholbarkeiten. Wie zu erwarten liefern die rein empirischen Modelle GPT und GMF die schlechtesten Ergebnisse, denn diese Modelle beinhalten keine tatsachlichen Wetterdaten sondern beschreiben nur dessen mittleres Verhalten.
Die Modellierung der troposphärischen Laufzeitverzögerungen von Mikrowellen, wie sie in der Very Long Baseline Interferometry (VLBI) oder den Global Navigation Satellite Systems (GNSS) empfangen werden, ist ein kritischer Faktor für die Genauigkeit dieser geodätischen Weltraumverfahren. In der vorliegenden Arbeit wurden fünf verschiedene Modellansätze miteinander verglichen, indem sie bei der Auswertung der VLBI Beobachtungen einer speziellen 15-tägigen Kampagne im August 2008 verwendet wurden. Als Genauigkeitskriterium diente die Wiederholbarkeit von Basislinienlängen, geschätzt aus 15 täglichen Lösungen. Die Analyse mit der Vienna VLBI Software (VieVS) wurde insofern geändert, als die troposphärischen Laufzeitverzögerungen erstmals aus externen Datensätzen eingelesen wurden. Diese Vorgehensweise ermöglichte das Anbringen von Laufzeitverzögerungen aus direktem Raytracing, und sie erlaubt in Zukunft die Austauschbarkeit von Modelldaten verschiedener Analysezentren.
Im ersten Ansatz wurden hydrostatische Laufzeitverzögerungen als Produkt von hydrostatischen Laufzeitverzögerungen in Ζenitrichtung (Zenitdelays) aus 6-stündigen Daten des European Centre for Medium-Range Weather Forecasts (ECMWF) mit den hydrostatischen Vienna Mapping Functions 1 (VMF1, ebenfalls basierend auf 6-stündigen Daten des ECMWF) gebildet, und feuchte Laufzeitverzögerungen in Zenitrichtung wurden in VieVS mit der feuchten VMF1 geschätzt. Im zweiten Ansatz wurden zusätzlich bereits a priori Laufzeitverzögerungen aufgrund des feuchten Anteils der Troposphäre addiert, ebenfalls basierend auf Daten des ECMWF, die Schätzung der restlichen Zenitdelays erfolgte wiederum mit der feuchten VMF1. Das dritte Modell unterschied sich insofern vom ersten Ansatz, als die hydrostatischen Laufzeitverzögerungen in Zenitrichtung aus tatsächlich an der Station gemessenen Druckwerten (für jede Beobachtung vorhanden) berechnet wurden. Im vierten Ansatz wurden hydrostatische Zenitdelays aus Druckwerten des empirischen Modells Global Pressure and Temperature (GPT) berechnet, und sowohl deren Projektion als auch die Schätzung der feuchten Zenitdelays erfolgte mit den empirischen Global Mapping Functions (GMF). Im fünften Ansatz schließlich wurde für jede Beobachtung eine eigene Strahlverfolgung (Raytracing) durch hochaufgelöste Daten des ECMWF berechnet, um die Laufzeitverzögerungen zu erhalten.
Basierend auf den Wiederholbarkeiten der Basislinienlängen kann man die Ergebnisse folgendermaßen zusammenfassen: Raytracing bestimmt die Laufzeitverzögerungen entweder sehr gut oder sehr schlecht, denn 44% der Basislinienlängen werden damit am besten modelliert, 33% allerdings am schlechtesten. Trotz der geringen Unterschiede der restlichen, auf tatsächlichen Wetterdaten basierenden Modelle, liefern doch die Druckmessungen an der Station bessere Ergebnisse als jene Ansätze, bei denen hydrostatische Zenitdelays aus 6-stündigen Daten des ECMWF berechnet worden sind. 33 von 55 Basislinien erreichen ohne Berücksichtigung von Raytracing mit den Druckmessungen an der Station die besten Wiederholbarkeiten. Wie zu erwarten liefern die rein empirischen Modelle GPT und GMF die schlechtesten Ergebnisse, denn diese Modelle beinhalten keine tatsachlichen Wetterdaten sondern beschreiben nur dessen mittleres Verhalten.
Untersuchungen zur Wegbestimmung mit dem Beschleunigungssensor Q-Flex QA 1400
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2011
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Kurzfassung/Abstract
In dieser Masterarbeit wurde die Tauglichkeit des Beschleunigungssensors Q-Flex QA 1400 zur Wegbestimmung sowie dessen Präzision untersucht. Diese Untersuchungen wurden im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme durchgeführt. Teil dieser Arbeit war es ein Messsystem zu schaffen, dass möglichst frei von etwaigen Fehlereinflüssen ist und für die Wegbestimmung verwendet werden kann. Neben dem Beschleunigungssensor (Q-Flex QA 1400) wurde ein A/D-Wandler (NI 9239) sowie eine Messsoftware verwendet. Auch diese Komponenten waren Teil der Untersuchungen, wobei das Hauptaugenmerk auf dem Beschleunigungssensor und dem Gesamtsystem lag. Neben dem Aufwärm- und Driftverhalten wurden auch Untersuchungen zur Nullpunktstabilität, Rauschverhalten und der Ermittlung der Grenzfrequenz durchgeführt. Weiters wurde die Temperaturabhängigkeit des Messsystems durch Messungen in der Klimakammer bestimmt (62 ppm/°C). Durch Fahrten auf dem Vertikalkomparator wurde ein Maßstab bestimmt, dessen Ursache im Spannungsverlust im Messsystem bzw. der Verkippung des Sensors vermutet wird. Dieser beträgt 0.2 Prozent und ist an die berechneten Längenänderungen anzubringen. Die Korrekturterme (Temperaturkorrektur, Maßstab, Tiefpassfilterung, Nullpunktverschiebung und die Korrektur der Coriolisbeschleunigung) wurden bei Messungen mit der Klimakammer, wo die Auswirkung der sich verändernden Umgebungstemperatur auf das Messsignal analysiert wurde, sowie bei Messungen mit dem Horizontalkomparator, wo die Wegbestimmung mit einer fixen Referenz verglichen wurde, kontrolliert. Nach den Untersuchungen im Labor wurde mit dem Messsystem eine erste Feldmessung auf einer 80 m langen Fußgängerbrücke durchgeführt. Die Brücke wurde einerseits gezielt durch Hüpfen und Hammerschläge und andererseits durch auf dem Brückendeck gehende Passanten in Schwingung versetzt. Es wurden Bewegungsamplituden zwischen 0.02 mm und 1.2 mm festgestellt. Es konnte auch gezeigt werden, dass die Brücke durch die Anregung von Fußgängern in der Eigenfrequenz (5.8 Hz) zu schwingen beginnt.
In dieser Masterarbeit wurde die Tauglichkeit des Beschleunigungssensors Q-Flex QA 1400 zur Wegbestimmung sowie dessen Präzision untersucht. Diese Untersuchungen wurden im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme durchgeführt. Teil dieser Arbeit war es ein Messsystem zu schaffen, dass möglichst frei von etwaigen Fehlereinflüssen ist und für die Wegbestimmung verwendet werden kann. Neben dem Beschleunigungssensor (Q-Flex QA 1400) wurde ein A/D-Wandler (NI 9239) sowie eine Messsoftware verwendet. Auch diese Komponenten waren Teil der Untersuchungen, wobei das Hauptaugenmerk auf dem Beschleunigungssensor und dem Gesamtsystem lag. Neben dem Aufwärm- und Driftverhalten wurden auch Untersuchungen zur Nullpunktstabilität, Rauschverhalten und der Ermittlung der Grenzfrequenz durchgeführt. Weiters wurde die Temperaturabhängigkeit des Messsystems durch Messungen in der Klimakammer bestimmt (62 ppm/°C). Durch Fahrten auf dem Vertikalkomparator wurde ein Maßstab bestimmt, dessen Ursache im Spannungsverlust im Messsystem bzw. der Verkippung des Sensors vermutet wird. Dieser beträgt 0.2 Prozent und ist an die berechneten Längenänderungen anzubringen. Die Korrekturterme (Temperaturkorrektur, Maßstab, Tiefpassfilterung, Nullpunktverschiebung und die Korrektur der Coriolisbeschleunigung) wurden bei Messungen mit der Klimakammer, wo die Auswirkung der sich verändernden Umgebungstemperatur auf das Messsignal analysiert wurde, sowie bei Messungen mit dem Horizontalkomparator, wo die Wegbestimmung mit einer fixen Referenz verglichen wurde, kontrolliert. Nach den Untersuchungen im Labor wurde mit dem Messsystem eine erste Feldmessung auf einer 80 m langen Fußgängerbrücke durchgeführt. Die Brücke wurde einerseits gezielt durch Hüpfen und Hammerschläge und andererseits durch auf dem Brückendeck gehende Passanten in Schwingung versetzt. Es wurden Bewegungsamplituden zwischen 0.02 mm und 1.2 mm festgestellt. Es konnte auch gezeigt werden, dass die Brücke durch die Anregung von Fußgängern in der Eigenfrequenz (5.8 Hz) zu schwingen beginnt.
Wesen und Nutzen inertialer MEMS Sensoren in der Fahrzeugnavigation
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2011
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
In der Fahrzeugnavigation bedient man sich heute der Satellitennavigationssysteme. Ein solches System, basierend auf der Sichtverbindung zu Satelliten, erfährt jedoch in Stadtgebieten mit Bereichen hoher Abschattung Probleme, eine kontinuierliche Positionslösung zu berechnen. Ein Ansatz zur Lösung dieses Problems ist die Integration von Satellitennavigationssystemen mit inertialen Messsystemen. Solche inertiale Messeinheiten sind, mit den Genauigkeiten, welche für die Navigation notwendig sind, äußerst kostenaufwändig. Die technische Entwicklung bringt inertiale Messeinheiten kleinster Größe, welche als preiswert bezeichnet werden können. In dieser Diplomarbeit wird beispielhaft eine preiswerte inertiale Messeinheit, die Xsens MTx, auf ihre Fähigkeit zur Navigation untersucht. Hierfür wird der Sensor in statischen Untersuchungen anhand seiner Sensorfehler klassifiziert. Eine Untersuchung im Frequenzbereich zeigt die Anregfrequenzen der Gyroskope, eine Auswertung der Allan-Varianz im statischen Fall liefert einen Aufschluss über die Bias-Stabilität. Generell ist der größte Fehler inertialer Sensoren, bei der Anwendung in der Navigation, der Bias-Fehler, da er mehrfach integriert wird. Es zeigt sich, dass weder ein strenges Alignment noch ein Strapdown-Algorithmus, mit einem Sensor der Güte der Xsens MTx, zuverlässig berechnet werden kann. Für Untersuchungen vor dem Hintergrund der Fahrzeugnavigation wurde eine Messfahrt im Stadtbereich durchgeführt. Als Referenz wurde mit einer hochgenauen, inertialen Messeinheit aufgezeichnet. Die Analyse der Messfahrt anhand der Attitude, mit dem Xsens-Fusionsalgorithmus, liefert unzureichende Ergebnisse. Der Fusionsalgorithmus ist nicht auf die Kinematik des Straßenverkehrs ausgelegt und die Magnetsensoren können hier keine unterstützende Lösung liefern. Anhand der erarbeiteten Sensoranalyse und der Messfahrt im Stadtbereich wird ein, für die Kinematik eines Fahrzeugs im Straßenverkehr, optimierter Algorithmus zur Berechnung der Attitude präsentiert. Es zeigt sich, dass die Attitude, unter bestimmten Voraussetzungen und der Stützung durch die Satellitennavigation, um die 2° bestimmbar ist.
In der Fahrzeugnavigation bedient man sich heute der Satellitennavigationssysteme. Ein solches System, basierend auf der Sichtverbindung zu Satelliten, erfährt jedoch in Stadtgebieten mit Bereichen hoher Abschattung Probleme, eine kontinuierliche Positionslösung zu berechnen. Ein Ansatz zur Lösung dieses Problems ist die Integration von Satellitennavigationssystemen mit inertialen Messsystemen. Solche inertiale Messeinheiten sind, mit den Genauigkeiten, welche für die Navigation notwendig sind, äußerst kostenaufwändig. Die technische Entwicklung bringt inertiale Messeinheiten kleinster Größe, welche als preiswert bezeichnet werden können. In dieser Diplomarbeit wird beispielhaft eine preiswerte inertiale Messeinheit, die Xsens MTx, auf ihre Fähigkeit zur Navigation untersucht. Hierfür wird der Sensor in statischen Untersuchungen anhand seiner Sensorfehler klassifiziert. Eine Untersuchung im Frequenzbereich zeigt die Anregfrequenzen der Gyroskope, eine Auswertung der Allan-Varianz im statischen Fall liefert einen Aufschluss über die Bias-Stabilität. Generell ist der größte Fehler inertialer Sensoren, bei der Anwendung in der Navigation, der Bias-Fehler, da er mehrfach integriert wird. Es zeigt sich, dass weder ein strenges Alignment noch ein Strapdown-Algorithmus, mit einem Sensor der Güte der Xsens MTx, zuverlässig berechnet werden kann. Für Untersuchungen vor dem Hintergrund der Fahrzeugnavigation wurde eine Messfahrt im Stadtbereich durchgeführt. Als Referenz wurde mit einer hochgenauen, inertialen Messeinheit aufgezeichnet. Die Analyse der Messfahrt anhand der Attitude, mit dem Xsens-Fusionsalgorithmus, liefert unzureichende Ergebnisse. Der Fusionsalgorithmus ist nicht auf die Kinematik des Straßenverkehrs ausgelegt und die Magnetsensoren können hier keine unterstützende Lösung liefern. Anhand der erarbeiteten Sensoranalyse und der Messfahrt im Stadtbereich wird ein, für die Kinematik eines Fahrzeugs im Straßenverkehr, optimierter Algorithmus zur Berechnung der Attitude präsentiert. Es zeigt sich, dass die Attitude, unter bestimmten Voraussetzungen und der Stützung durch die Satellitennavigation, um die 2° bestimmbar ist.
Micron Optics si425: Prototypentests und Untersuchungen für den Feldeinsatz
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2011
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Kurzfassung/Abstract
In der Geodäsie spielt das Wissen um die erreichbare Präzision eines Messsystems eine große Rolle. Damit werden Messaufgaben geplant und das dafür geeignete Instrumentarium gewählt. In dieser Masterarbeit sollen Prototypentests durchgeführt werden, die eine effiziente Verwendung der faseroptischen Interrogation Unit "Micron Optics si425" in der Praxis ermöglichen. Da es sich um ein neuartiges Messsystem handelt, stehen nur spärliche Informationen über den Aufbau, die Funktionsweise und die Leistungsfähigkeit des Instrumentariums zur Verfügung. Daher werden zunächst das Funktionsprinzip des Instrumentariums, die verbauten Komponenten, sowie die Auswertung der Messsignale näher erläutert. Im praktischen Teil der Arbeit wurden geeignete Referenzsensoren für die Experimente ausgewählt. Die Sensoren wurden zu ihrem Schutz in zwei robuste Kunststoffgehäuse eingebaut. Um möglichst konstante Temperaturbedingungen zu gewährleisten, wurden diese am Fuße des Bodenschachtes des Vertikalkomparators im institutseigenen Messlabor untergebracht. Die Eignung der Sensoren als stabile Referenz konnte in einer Voruntersuchung nachgewiesen werden. Mithilfe der Referenzsensoren wurden verschiedene Experimente durchgeführt, um eine effizientere Nutzung des Instrumentariums im Feldeinsatz zu gewährleisten. Bei der durchgeführten Dauermessung konnte keine signifikante Drift in der Braggwellenlägenbestimmung festgestellt werden. Für präzise Messaufgaben konnte bei diesem Experiment zudem eine Aufwärmzeit für das Messsystem bestimmt werden, die sehr deutlich von der Herstellerangabe abweicht. Zudem kommt es bei der detektierten Wellenlänge, vermutlich aufgrund der Laserkalibrierung, zu Datensprüngen. Diese Datensprünge limitieren die erreichbare Präzision des Messsystems. Daher wurden aufgrund dieser Datensprünge Genauigkeitsangaben für die folgenden Experimente für jeden Sensor abgeleitet. Bei Experimenten zur Faserzentrierung konnte nachgewiesen werden, dass die bestimmte Wellenlänge unabhängig vom Anschließen der Faser an die Kanäle der si425 ist. Bei einem Experiment zur Signaldämpfung wurde durch Krümmung des Lichtwellenleiters künstlich die Signalintensität geschwächt. Die Messwerte zeigen bei einer niederen Signalintensität deutliche Abweichungen zu den zuvor bestimmten Werten.
In der Geodäsie spielt das Wissen um die erreichbare Präzision eines Messsystems eine große Rolle. Damit werden Messaufgaben geplant und das dafür geeignete Instrumentarium gewählt. In dieser Masterarbeit sollen Prototypentests durchgeführt werden, die eine effiziente Verwendung der faseroptischen Interrogation Unit "Micron Optics si425" in der Praxis ermöglichen. Da es sich um ein neuartiges Messsystem handelt, stehen nur spärliche Informationen über den Aufbau, die Funktionsweise und die Leistungsfähigkeit des Instrumentariums zur Verfügung. Daher werden zunächst das Funktionsprinzip des Instrumentariums, die verbauten Komponenten, sowie die Auswertung der Messsignale näher erläutert. Im praktischen Teil der Arbeit wurden geeignete Referenzsensoren für die Experimente ausgewählt. Die Sensoren wurden zu ihrem Schutz in zwei robuste Kunststoffgehäuse eingebaut. Um möglichst konstante Temperaturbedingungen zu gewährleisten, wurden diese am Fuße des Bodenschachtes des Vertikalkomparators im institutseigenen Messlabor untergebracht. Die Eignung der Sensoren als stabile Referenz konnte in einer Voruntersuchung nachgewiesen werden. Mithilfe der Referenzsensoren wurden verschiedene Experimente durchgeführt, um eine effizientere Nutzung des Instrumentariums im Feldeinsatz zu gewährleisten. Bei der durchgeführten Dauermessung konnte keine signifikante Drift in der Braggwellenlägenbestimmung festgestellt werden. Für präzise Messaufgaben konnte bei diesem Experiment zudem eine Aufwärmzeit für das Messsystem bestimmt werden, die sehr deutlich von der Herstellerangabe abweicht. Zudem kommt es bei der detektierten Wellenlänge, vermutlich aufgrund der Laserkalibrierung, zu Datensprüngen. Diese Datensprünge limitieren die erreichbare Präzision des Messsystems. Daher wurden aufgrund dieser Datensprünge Genauigkeitsangaben für die folgenden Experimente für jeden Sensor abgeleitet. Bei Experimenten zur Faserzentrierung konnte nachgewiesen werden, dass die bestimmte Wellenlänge unabhängig vom Anschließen der Faser an die Kanäle der si425 ist. Bei einem Experiment zur Signaldämpfung wurde durch Krümmung des Lichtwellenleiters künstlich die Signalintensität geschwächt. Die Messwerte zeigen bei einer niederen Signalintensität deutliche Abweichungen zu den zuvor bestimmten Werten.
GIS basiertes Parkraummanagement für Intelligente Verkehrssysteme
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2011
Betreuer: Mag. Thomas Woltron
Betreuer: Mag. Thomas Woltron
Kurzfassung/Abstract
Diese Arbeit beschäftigt sich mit GIS im Parkraummanagement und ist Teil des Forschungsprojekts Air2Traffic im Austrian Institute of Technology (AIT). Im Rahmen der Thesis wird die Fragestellung untersucht, inwieweit parkraumrelevante Informationen im derzeitigen digitalen Kartenmaterial bereits enthalten sind. Hierzu werden Daten des kommerziellen Straßenkartenherstellers Tele Atlas und die Open-Source basierten Daten vom OSM-Projekt naher betrachtet und hinsichtlich ihrer Eignung für das Parkraummanagement verglichen. Des Weiteren werden vorhandene und mögliche Echtzeitschnittstellen für die Erfassung aktueller Parkraum- Auslastungen diskutiert. Zudem werden mögliche Erweiterungen des Datenmaterials im Bezug auf die vorhandenen statischen und dynamischen Daten entworfen. Zusätzlich werden typische Anwendungsfälle sowie angepasste Visualisierungs-Strategien vorgestellt. Basierend auf den unterschiedlichen Benutzerszenarien eines Parkraum-Systems sowie den vorhandenen Daten wird ein neues Parkraum-Datenmodell erarbeitet, um diese Erweiterungen in ein Parkraum-Datenmodell zu integrieren. Die angestellten Überlegungen werden mithilfe eines Testsystems ("parkgis- System") und fünf aus unterschiedlichen Szenarien ausgewählten Testparkräumen praktisch umgesetzt. Dabei werden ein Web-basierter und ein mobiler Client entwickelt, die jeweils Parkraum-Daten aus dem Geodatenbanksystem abrufen. Die Prototypen werden eingesetzt um die Erweiterungen zu testen und typische Abfragen zu überprüfen. Abschließend sollen konkrete Testfalle mit den Prototypen simuliert und interpretiert werden.
Diese Arbeit beschäftigt sich mit GIS im Parkraummanagement und ist Teil des Forschungsprojekts Air2Traffic im Austrian Institute of Technology (AIT). Im Rahmen der Thesis wird die Fragestellung untersucht, inwieweit parkraumrelevante Informationen im derzeitigen digitalen Kartenmaterial bereits enthalten sind. Hierzu werden Daten des kommerziellen Straßenkartenherstellers Tele Atlas und die Open-Source basierten Daten vom OSM-Projekt naher betrachtet und hinsichtlich ihrer Eignung für das Parkraummanagement verglichen. Des Weiteren werden vorhandene und mögliche Echtzeitschnittstellen für die Erfassung aktueller Parkraum- Auslastungen diskutiert. Zudem werden mögliche Erweiterungen des Datenmaterials im Bezug auf die vorhandenen statischen und dynamischen Daten entworfen. Zusätzlich werden typische Anwendungsfälle sowie angepasste Visualisierungs-Strategien vorgestellt. Basierend auf den unterschiedlichen Benutzerszenarien eines Parkraum-Systems sowie den vorhandenen Daten wird ein neues Parkraum-Datenmodell erarbeitet, um diese Erweiterungen in ein Parkraum-Datenmodell zu integrieren. Die angestellten Überlegungen werden mithilfe eines Testsystems ("parkgis- System") und fünf aus unterschiedlichen Szenarien ausgewählten Testparkräumen praktisch umgesetzt. Dabei werden ein Web-basierter und ein mobiler Client entwickelt, die jeweils Parkraum-Daten aus dem Geodatenbanksystem abrufen. Die Prototypen werden eingesetzt um die Erweiterungen zu testen und typische Abfragen zu überprüfen. Abschließend sollen konkrete Testfalle mit den Prototypen simuliert und interpretiert werden.
Validation and Improvement of the Freeze/_aw detection Algorithm from ASCAT Data
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Der Frostzustand der Erdoberfläche hat weitreichende Konsequenzen für eine vielzahl von Vorgängen in der Natur. Der Bodenenergiehaushalt, der Wasserzyklus, die Wachstumszeiten der Pflanzen, der Kohlenstoffhaushalt der Erde, und auch die Messung der Bodenfeuchte mit Fernerkundungstechnologien, welche bei gefrorenem Boden nichtmöglich ist, sind stark vom Frostzustand abhängig. Am Institut für Photogrammetrie und Fernerkundung and der TU Wien wurde ein empirischer, auf Schwellenwerten basierender Algorithmus entwickelt, welcher es ermöglicht den Frostzustand nur mithilfe von ASCAT Daten festzustellen. Vor dieser Entwicklung war die vom ASCAT Scatterometer gemessene Bodenfeuchte von externen Wahrscheinlichkeiten für gefrorenen Boden abhängig, um Messwerte zu erkennen die über selbigem gemacht wurden.
Der Algorithmus verwendet die Verteilung von normalisierter Rückstreuung (σ40) über Temperaturmesswerten um daraus Parameter abzuleiten, welche das Verhalten der Rückstreuung beim gefrieren des Bodens beschreiben. Basierend auf diesen Parametern führen mehrere Entscheidungsbäume zu einer Aussage über den Frostzustand. Im Zuge dieser Arbeit wurde eine erste Valdierung des resultierenden Produktes mit unterschiedlichen globalen und regionalen Temperaturdatensätzen vorgenommen. Dabei wurden sowohl Klimamodelle (ERA-INTERIM, GLDAS-NOAH) als auch in situ Messwerte (WMO-METEO Stationen, GTN-P Bohrlochdaten) und von Satelliten gemessene Bodentemperaturdaten (MODIS-LST,AATSR-LST) verwendet. Die Validierung zeigt gute Übereinstimmungen zwischen dem abgeleiteten Frostzustand und den verschiedenen Datensätzen, aber auch die Notwendigkeit von Verbesserungen in bestimmten Situationen. Die Probleme des Algorithmus treten hauptsächlich dann auf wenn der Zusammenhang zwischen Rückstreuung
und Temperatur nicht eindeutig gegeben ist, es kommen aber in machen Gebieten noch systematische Fehler hinzu. Als letzter Schritt wurde versucht die Entscheidungsbäume zu vereinfachen und die Robustheit des Algorithmus zu verbessern indem durch externe Datensätze die zu berücksichtigenden Kombinationen von Rückstreuung und Temperatur, minimiert werden. Dadurch kann sich der Algorithmus auf die für den Frostzustand wichtige Zeit in Frühling und Herbst konzentrieren. Die Ergebnisse dieser Änderungen wurden ebenfalls validiert und bedeuten in den meisten Fällen eine Verbesserung.
Der Frostzustand der Erdoberfläche hat weitreichende Konsequenzen für eine vielzahl von Vorgängen in der Natur. Der Bodenenergiehaushalt, der Wasserzyklus, die Wachstumszeiten der Pflanzen, der Kohlenstoffhaushalt der Erde, und auch die Messung der Bodenfeuchte mit Fernerkundungstechnologien, welche bei gefrorenem Boden nichtmöglich ist, sind stark vom Frostzustand abhängig. Am Institut für Photogrammetrie und Fernerkundung and der TU Wien wurde ein empirischer, auf Schwellenwerten basierender Algorithmus entwickelt, welcher es ermöglicht den Frostzustand nur mithilfe von ASCAT Daten festzustellen. Vor dieser Entwicklung war die vom ASCAT Scatterometer gemessene Bodenfeuchte von externen Wahrscheinlichkeiten für gefrorenen Boden abhängig, um Messwerte zu erkennen die über selbigem gemacht wurden.
Der Algorithmus verwendet die Verteilung von normalisierter Rückstreuung (σ40) über Temperaturmesswerten um daraus Parameter abzuleiten, welche das Verhalten der Rückstreuung beim gefrieren des Bodens beschreiben. Basierend auf diesen Parametern führen mehrere Entscheidungsbäume zu einer Aussage über den Frostzustand. Im Zuge dieser Arbeit wurde eine erste Valdierung des resultierenden Produktes mit unterschiedlichen globalen und regionalen Temperaturdatensätzen vorgenommen. Dabei wurden sowohl Klimamodelle (ERA-INTERIM, GLDAS-NOAH) als auch in situ Messwerte (WMO-METEO Stationen, GTN-P Bohrlochdaten) und von Satelliten gemessene Bodentemperaturdaten (MODIS-LST,AATSR-LST) verwendet. Die Validierung zeigt gute Übereinstimmungen zwischen dem abgeleiteten Frostzustand und den verschiedenen Datensätzen, aber auch die Notwendigkeit von Verbesserungen in bestimmten Situationen. Die Probleme des Algorithmus treten hauptsächlich dann auf wenn der Zusammenhang zwischen Rückstreuung
und Temperatur nicht eindeutig gegeben ist, es kommen aber in machen Gebieten noch systematische Fehler hinzu. Als letzter Schritt wurde versucht die Entscheidungsbäume zu vereinfachen und die Robustheit des Algorithmus zu verbessern indem durch externe Datensätze die zu berücksichtigenden Kombinationen von Rückstreuung und Temperatur, minimiert werden. Dadurch kann sich der Algorithmus auf die für den Frostzustand wichtige Zeit in Frühling und Herbst konzentrieren. Die Ergebnisse dieser Änderungen wurden ebenfalls validiert und bedeuten in den meisten Fällen eine Verbesserung.
Problemstellungen bei der Verwendung des Geoids als Transformationsfläche zwischen ellipsoidischen und orthometrischen Höhen
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2011
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Neben den Informationen die das Geoid beispielsweise über das Erdinnere liefert, ist es auch für die Höhenbestimmung von essentieller Bedeutung. Hier spielt das Geoid eine sehr wichtige Rolle als Bezugsfläche für Höhenangaben. Bei der Umrechnung von ellipsoidischen Höhen h aus GPS (Global Positioning System) Messungen in orthometrische Höhen H werden Geoidhöhen N benötigt. In der Praxis wird diese lineare Beziehung zum Beispiel durch systematische oder zufällige Fehler in den Beobachtungen, Datumsinkonsistenzen oder aber auch durch geodynamische Effekte (Post-Glacial Rebound etc.) nicht zu realisieren sein. Hier zeigt sich der Unterschied zwischen physikalischen und geometrischen Größen. Es treten somit Differenzen zwischen den rein aus Schwereanomalien bestimmten gravimetrischen Geoidhöhen und den GPS/Nivellementpunkten (GPS/Niv.) auf. Findet eine Anpassung des Geoids an die GPS/Niv. Punkte statt, so spricht man von Lagerung auf die GPS/Niv. Punkte und das Geoid wird als Transformationsfläche bezeichnet. Je nach Verteilung der GPS/Niv. Punkte und der Größe der Differenzen kann die dadurch entstehende Korrekturfläche beispielsweise mittels Polynom dritten Grades, höheren Grades oder auch mit radialen Basisfunktion (RBF) modelliert werden. Für die Modellierung der Korrekturflächen mit RBF's wurde der Greedy Algorithmus adaptiert um die minimale Anzahl und Lage der GPS/Niv. Punkte zu ermitteln. Dieser Algorithmus unterteilt die GPS/Niv. Punkte in Greedypunkte und Restpunkte. Durch Vorgabe einer selbst zu wählenden Fehlergrenze liegt der Approximationsfehler für die Restpunkte innerhalb dieser Grenze. Da nun nicht mehr alle GPS/Niv. Punkte in die Berechnung einfließen, können die Restpunkte zur Validierung der Lösung herangezogen werden. Die Entwicklung eines Algorithmus um einzelne, auffällige GPS/Niv. Punkte detektieren zu können ist ebenfalls Bestandteil dieser Arbeit. Dazu wurde auf die Leave-One-Out Cross Validation (LOOCV) zurückgegriffen, die es ermöglicht auf Unregelmäßigkeiten und somit auf mögliche Fehler in den GPS/Niv. Punkten zu stoßen. Die Detektion wird mit verschiedenen radialen Basisfunktionen und auch mittels Polynom dritten Grades für die Korrekturfläche durchgeführt. Anschließend werden die verschiedenen Detektionsergebnisse miteinander verglichen. Zeigen sich Auffälligkeiten in den gleichen Punkten, so werden diese markiert und erfordern eine weitere Überprüfung. Ebenfalls eine wichtige Rolle für die Kollokation spielt die Gewichtung der unterschiedlichen Schwerefeldgrößen (Schwereanomalien, Lotabweichungen und Geoidhöhen) relativ zueinander. Klassisch werden Gewichte über den Ist-Soll Vergleich zwischen den gemessenen Geoidhöhen und der unter Annahme gleicher Genauigkeit auf den GPS/Niv. Punkten gelagerten Geoidlösung ermittelt. Ein alternativer Ansatz über die Residuen der LOOCV wurde entwickelt und mit der gängigen Methode verglichen.
Neben den Informationen die das Geoid beispielsweise über das Erdinnere liefert, ist es auch für die Höhenbestimmung von essentieller Bedeutung. Hier spielt das Geoid eine sehr wichtige Rolle als Bezugsfläche für Höhenangaben. Bei der Umrechnung von ellipsoidischen Höhen h aus GPS (Global Positioning System) Messungen in orthometrische Höhen H werden Geoidhöhen N benötigt. In der Praxis wird diese lineare Beziehung zum Beispiel durch systematische oder zufällige Fehler in den Beobachtungen, Datumsinkonsistenzen oder aber auch durch geodynamische Effekte (Post-Glacial Rebound etc.) nicht zu realisieren sein. Hier zeigt sich der Unterschied zwischen physikalischen und geometrischen Größen. Es treten somit Differenzen zwischen den rein aus Schwereanomalien bestimmten gravimetrischen Geoidhöhen und den GPS/Nivellementpunkten (GPS/Niv.) auf. Findet eine Anpassung des Geoids an die GPS/Niv. Punkte statt, so spricht man von Lagerung auf die GPS/Niv. Punkte und das Geoid wird als Transformationsfläche bezeichnet. Je nach Verteilung der GPS/Niv. Punkte und der Größe der Differenzen kann die dadurch entstehende Korrekturfläche beispielsweise mittels Polynom dritten Grades, höheren Grades oder auch mit radialen Basisfunktion (RBF) modelliert werden. Für die Modellierung der Korrekturflächen mit RBF's wurde der Greedy Algorithmus adaptiert um die minimale Anzahl und Lage der GPS/Niv. Punkte zu ermitteln. Dieser Algorithmus unterteilt die GPS/Niv. Punkte in Greedypunkte und Restpunkte. Durch Vorgabe einer selbst zu wählenden Fehlergrenze liegt der Approximationsfehler für die Restpunkte innerhalb dieser Grenze. Da nun nicht mehr alle GPS/Niv. Punkte in die Berechnung einfließen, können die Restpunkte zur Validierung der Lösung herangezogen werden. Die Entwicklung eines Algorithmus um einzelne, auffällige GPS/Niv. Punkte detektieren zu können ist ebenfalls Bestandteil dieser Arbeit. Dazu wurde auf die Leave-One-Out Cross Validation (LOOCV) zurückgegriffen, die es ermöglicht auf Unregelmäßigkeiten und somit auf mögliche Fehler in den GPS/Niv. Punkten zu stoßen. Die Detektion wird mit verschiedenen radialen Basisfunktionen und auch mittels Polynom dritten Grades für die Korrekturfläche durchgeführt. Anschließend werden die verschiedenen Detektionsergebnisse miteinander verglichen. Zeigen sich Auffälligkeiten in den gleichen Punkten, so werden diese markiert und erfordern eine weitere Überprüfung. Ebenfalls eine wichtige Rolle für die Kollokation spielt die Gewichtung der unterschiedlichen Schwerefeldgrößen (Schwereanomalien, Lotabweichungen und Geoidhöhen) relativ zueinander. Klassisch werden Gewichte über den Ist-Soll Vergleich zwischen den gemessenen Geoidhöhen und der unter Annahme gleicher Genauigkeit auf den GPS/Niv. Punkten gelagerten Geoidlösung ermittelt. Ein alternativer Ansatz über die Residuen der LOOCV wurde entwickelt und mit der gängigen Methode verglichen.
Ansätze zur Ermittlung der energieeffizientesten Route
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2011
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Zur Ermittlung einer Route in einem Straßennetz können verschiedene Optimierungskriterien herangezogen werden. Typische an Navigationssysteme für Kraftfahrzeuge gerichtete Anfragen betreffen die Ermittlung der kürzesten oder der schnellsten Route. In dieser Masterarbeit werden Ansätze zur Ermittlung der energieeffizientesten Route untersucht. Hierzu wird analysiert, welche straßen- und fahrzeugseitigen Parameter den Kraftstoffverbrauch eines PKWs beeinflussen und welche Geodaten für eine entsprechende Routing-Anwendung erforderlich sind. Die Elemente eines Straßennetzwerks werden in einem Programm aufbereitet und entsprechend aller fahrbahn- und fahrzeugtechnischen Einflussgrößen bewertet. Es werden Kanten und Traversen, d.h. Kanten-Kanten-Relationen mit Kostenzahlen versehen. Auf Basis der so gewonnenen Knoten-Kanten-Struktur können Routen durch entsprechende Algorithmen ermittelt werden. Als Quelle zweidimensionaler Geodaten fungiert OpenStreetMap. Es wird gezeigt, dass die Daten dieses Projekts zur Erstellung von Routing-Applikationen geeignet sind, auch wenn aufgrund teilweise fehlender Attributierung und inkorrekter Datenerfassung eine Reihe von Korrekturen vorzunehmen ist. Für diese spezielle Anwendung müssen die OpenStreetMap-Daten zudem durch ein Geländemodell, d.h. Informationen über die Höhe ergänzt werden. Die Aufbereitung und Verwendung entsprechender Daten wird in dieser Arbeit analysiert. Zur Analyse der Vielzahl an untersuchten Parametern werden Testszenarios konzipiert, die mittels des erstellten Programms ausgeführt werden. Hierbei werden verschiedene Strecken hinsichtlich ihres Energieverbrauchs simuliert und die Ergebnisse diskutiert.
Zur Ermittlung einer Route in einem Straßennetz können verschiedene Optimierungskriterien herangezogen werden. Typische an Navigationssysteme für Kraftfahrzeuge gerichtete Anfragen betreffen die Ermittlung der kürzesten oder der schnellsten Route. In dieser Masterarbeit werden Ansätze zur Ermittlung der energieeffizientesten Route untersucht. Hierzu wird analysiert, welche straßen- und fahrzeugseitigen Parameter den Kraftstoffverbrauch eines PKWs beeinflussen und welche Geodaten für eine entsprechende Routing-Anwendung erforderlich sind. Die Elemente eines Straßennetzwerks werden in einem Programm aufbereitet und entsprechend aller fahrbahn- und fahrzeugtechnischen Einflussgrößen bewertet. Es werden Kanten und Traversen, d.h. Kanten-Kanten-Relationen mit Kostenzahlen versehen. Auf Basis der so gewonnenen Knoten-Kanten-Struktur können Routen durch entsprechende Algorithmen ermittelt werden. Als Quelle zweidimensionaler Geodaten fungiert OpenStreetMap. Es wird gezeigt, dass die Daten dieses Projekts zur Erstellung von Routing-Applikationen geeignet sind, auch wenn aufgrund teilweise fehlender Attributierung und inkorrekter Datenerfassung eine Reihe von Korrekturen vorzunehmen ist. Für diese spezielle Anwendung müssen die OpenStreetMap-Daten zudem durch ein Geländemodell, d.h. Informationen über die Höhe ergänzt werden. Die Aufbereitung und Verwendung entsprechender Daten wird in dieser Arbeit analysiert. Zur Analyse der Vielzahl an untersuchten Parametern werden Testszenarios konzipiert, die mittels des erstellten Programms ausgeführt werden. Hierbei werden verschiedene Strecken hinsichtlich ihres Energieverbrauchs simuliert und die Ergebnisse diskutiert.
Straßenentwässerungsmodell für das ASFINAG Web GIS
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2011
Betreuer: Dipl.-Ing. Brigitte Rudel
Betreuer: Dipl.-Ing. Brigitte Rudel
Kurzfassung/Abstract
Bei dieser Arbeit handelt es sich um ein Modell der Straßenentwässerung für das ASFINAG Straßennetz. Das Modell soll eine Hilfestellung für die Autobahnmeisterei darstellen und soll als Web GIS Funktion im Intranet verfügbar sein. Im Falle eines Unfalles auf dem ASFINAG Straßennetz mit gefährlichen Flüssigkeiten, kann die zuständige Autobahnmeisterei damit den potentiellen Verlauf der Flüssigkeiten erkennen und entsprechende Maßnahmen einleiten. Das Datenmodell wird in Anlehnung an das ArcHydro Datenmodell erstellt und basiert auf den ESRI Feature Klassen. Die Daten im CAD Format werden automatisiert in das Datenmodell übernommen. Die Umsetzung der Web GIS Funktion erfolgt mit einem serverseitigen Python Script, welches mit einem ArcGIS Server als geoprocessing Service zur Verfügung gestellt wird.
Bei dieser Arbeit handelt es sich um ein Modell der Straßenentwässerung für das ASFINAG Straßennetz. Das Modell soll eine Hilfestellung für die Autobahnmeisterei darstellen und soll als Web GIS Funktion im Intranet verfügbar sein. Im Falle eines Unfalles auf dem ASFINAG Straßennetz mit gefährlichen Flüssigkeiten, kann die zuständige Autobahnmeisterei damit den potentiellen Verlauf der Flüssigkeiten erkennen und entsprechende Maßnahmen einleiten. Das Datenmodell wird in Anlehnung an das ArcHydro Datenmodell erstellt und basiert auf den ESRI Feature Klassen. Die Daten im CAD Format werden automatisiert in das Datenmodell übernommen. Die Umsetzung der Web GIS Funktion erfolgt mit einem serverseitigen Python Script, welches mit einem ArcGIS Server als geoprocessing Service zur Verfügung gestellt wird.
Weiterentwicklung der User-Positionierungs-Algorithmen des ILT Indoor-Navigationssystems
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2011
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Derzeit werden verschiedene Anstrengungen im Rahmen von Forschungsprojekten unternommen, um eine Positionsbestimmung auch innerhalb von Gebäuden zu ermöglichen. Da GPS zwar im Outdoor-Bereich weit verbreitet, für Indoor-Anwendungen jedoch nur begrenzt geeignet ist, arbeiten verschiedene Forschungseinrichtungen an ambitionierten Indoor-Navigationsprojekten. So auch das Unternehmen EADS Astrium am ILT-Demonstrator, welcher auf Pseudolite-Signalen basiert. Bei diesem System handelt es sich um eine Kombination aus acht Transmittern, welche rund um ein Gebäude, einen Gebäudekomplex oder eine Siedlung positioniert werden, aus ein oder mehreren Empfängern im Inneren des Gebäudes und einer mobilen Master Station zur Steuerung des Systems. Bisherige Versuche zeigten, dass eine Lokalisierung des Empfängers durch die Auswertung der Laufzeit des Multicarrier-Signales zu einer Genauigkeit im Bereich von wenigen Metern führt. Da für die Zukunft eine Ausdehnung des Einsatzbereiches angestrebt wird, sollen Möglichkeiten der Flexibilisierung des Systems untersucht werden. Im Rahmen dieser Arbeit wird der Fokus daher einerseits auf das Mehrdeutigkeitsproblem des Signals und andererseits auf das Synchronisationsproblem der Transmitteruhren gelegt. Bisher ist nicht bekannt, inwiefern Mehrdeutigkeiten bei einem ausgedehnten Einsatzbereich auftreten. Die Signalcharakteristik lässt auf einen begrenzten Eindeutigkeitsbereich schließen. Diesen gilt es zu untersuchen, wobei zuvor die maximale Reichweite des Systems festgestellt werden muss. Treten Mehrdeutigkeiten auf, so soll ein Algorithmus zur Lösung dieser Ambiguitäten entwickelt werden. Weiters wird der Einsatzbereich durch die Art der Transmitter-Synchronisation eingeschränkt, da diese bisher eine Sichtverbindung zwischen den Transmittern innerhalb einer logischen Kette voraussetzt. Hierzu soll untersucht werden, ob durch eine Aufspaltung in Teilketten eine gewünschte Flexibilisierung erreicht werden kann. Zusätzlich sollen alternative Synchronisationsansätze in Erwägung gezogen werden. Zur Analyse beider Problemstellungen werden in dieser Arbeit jeweils Simulationen, Labor- sowie Testmessungen durchgeführt. Die Bestimmung der maximalen Reichweite des ILT-Demonstrators ergab, dass der theoretische Eindeutigkeitsbereich von 1536 m überschritten und sogar in einer Entfernung von bis zu 2000 m noch ein Signal empfangen werden kann. Weiters wurde festgestellt, dass tatsächlich Mehrdeutigkeiten auftreten, wobei zweierlei verschiedene Arten zu beobachten sind. Sowohl sogenannte Phasensprünge als auch ganzzahlige Vielfache des Eindeutigkeitsbereiches (Integer- Ambiguitäten) verfälschen die geschätzten Ranges und damit die berechnete Empfängerposition. Es wurde ein Ansatz basierend auf Referenzstrecken, welche durch GPS ermittelt werden, ausgearbeitet und dahingehend ein Algorithmus zur Detektion und zum Lösen von Mehrdeutigkeiten entwickelt. Die Untersuchung des Synchronisationsproblems ergab, dass eine Kettenteilung theoretisch durchführbar ist und die Positionslösungen bei idealisierten Bedingungen sehr wohl die gewünschte Genauigkeit erfüllen. Sobald realistische Bedingungen angenommen werden, beeinträchtigen jedoch der Mehrwegeeffekt und die Transmittergeometrie die Ergebnisse. Grundsätzlich bestehen neben der Kettenteilung auch verschiedene Alternativen zur Flexibilisierung des Systems. Unter Berücksichtigung der Genauigkeitsanforderungen erweist sich die Verwendung von separaten, hochgenauen Referenzoszillatoren in jedem der Transmitter als vielversprechend.
Derzeit werden verschiedene Anstrengungen im Rahmen von Forschungsprojekten unternommen, um eine Positionsbestimmung auch innerhalb von Gebäuden zu ermöglichen. Da GPS zwar im Outdoor-Bereich weit verbreitet, für Indoor-Anwendungen jedoch nur begrenzt geeignet ist, arbeiten verschiedene Forschungseinrichtungen an ambitionierten Indoor-Navigationsprojekten. So auch das Unternehmen EADS Astrium am ILT-Demonstrator, welcher auf Pseudolite-Signalen basiert. Bei diesem System handelt es sich um eine Kombination aus acht Transmittern, welche rund um ein Gebäude, einen Gebäudekomplex oder eine Siedlung positioniert werden, aus ein oder mehreren Empfängern im Inneren des Gebäudes und einer mobilen Master Station zur Steuerung des Systems. Bisherige Versuche zeigten, dass eine Lokalisierung des Empfängers durch die Auswertung der Laufzeit des Multicarrier-Signales zu einer Genauigkeit im Bereich von wenigen Metern führt. Da für die Zukunft eine Ausdehnung des Einsatzbereiches angestrebt wird, sollen Möglichkeiten der Flexibilisierung des Systems untersucht werden. Im Rahmen dieser Arbeit wird der Fokus daher einerseits auf das Mehrdeutigkeitsproblem des Signals und andererseits auf das Synchronisationsproblem der Transmitteruhren gelegt. Bisher ist nicht bekannt, inwiefern Mehrdeutigkeiten bei einem ausgedehnten Einsatzbereich auftreten. Die Signalcharakteristik lässt auf einen begrenzten Eindeutigkeitsbereich schließen. Diesen gilt es zu untersuchen, wobei zuvor die maximale Reichweite des Systems festgestellt werden muss. Treten Mehrdeutigkeiten auf, so soll ein Algorithmus zur Lösung dieser Ambiguitäten entwickelt werden. Weiters wird der Einsatzbereich durch die Art der Transmitter-Synchronisation eingeschränkt, da diese bisher eine Sichtverbindung zwischen den Transmittern innerhalb einer logischen Kette voraussetzt. Hierzu soll untersucht werden, ob durch eine Aufspaltung in Teilketten eine gewünschte Flexibilisierung erreicht werden kann. Zusätzlich sollen alternative Synchronisationsansätze in Erwägung gezogen werden. Zur Analyse beider Problemstellungen werden in dieser Arbeit jeweils Simulationen, Labor- sowie Testmessungen durchgeführt. Die Bestimmung der maximalen Reichweite des ILT-Demonstrators ergab, dass der theoretische Eindeutigkeitsbereich von 1536 m überschritten und sogar in einer Entfernung von bis zu 2000 m noch ein Signal empfangen werden kann. Weiters wurde festgestellt, dass tatsächlich Mehrdeutigkeiten auftreten, wobei zweierlei verschiedene Arten zu beobachten sind. Sowohl sogenannte Phasensprünge als auch ganzzahlige Vielfache des Eindeutigkeitsbereiches (Integer- Ambiguitäten) verfälschen die geschätzten Ranges und damit die berechnete Empfängerposition. Es wurde ein Ansatz basierend auf Referenzstrecken, welche durch GPS ermittelt werden, ausgearbeitet und dahingehend ein Algorithmus zur Detektion und zum Lösen von Mehrdeutigkeiten entwickelt. Die Untersuchung des Synchronisationsproblems ergab, dass eine Kettenteilung theoretisch durchführbar ist und die Positionslösungen bei idealisierten Bedingungen sehr wohl die gewünschte Genauigkeit erfüllen. Sobald realistische Bedingungen angenommen werden, beeinträchtigen jedoch der Mehrwegeeffekt und die Transmittergeometrie die Ergebnisse. Grundsätzlich bestehen neben der Kettenteilung auch verschiedene Alternativen zur Flexibilisierung des Systems. Unter Berücksichtigung der Genauigkeitsanforderungen erweist sich die Verwendung von separaten, hochgenauen Referenzoszillatoren in jedem der Transmitter als vielversprechend.
Hochgenaue ad-hoc Positionsbestimmung mit GNSS
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2011
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Die Firma Astrium GmbH hat ein Indoor-Navigations-System namens ILT (Indoor Localization Technology) entwickelt. Das System, welches in Form eines Demonstrators vorliegt, ist in der Lage mittels terrestrischer Radio-Navigation die Position eines Empfängers in Gebäuden zu bestimmen. Die Position wird durch Streckenmessungen zwischen mehreren Transmittern und einem Empfänger bestimmt. Der Fokus dieser Arbeit liegt auf der GPS-Positionsbestimmung der Transmitter und dessen Einfluss auf die Positionslösung des Empfängers. Dabei kommen Verfahren zu einer schnellen und genauen GPS-Positionsbestimmung, welche unabhängig von DGPS-Diensten (z.B. SAPOS oder APOS) arbeiten, zum Einsatz. Zur Unterstützung und Verbesserung der GPS-basierten Transmitterpositionierung wurden alternative Einmessverfahren implementiert und analysiert. Die Verfahren wurden in unterschiedlichen Arealen getestet und miteinander verglichen. Weiters beschreibt die Arbeit auch Alternativen zur absoluten GPS-Positionierung, welche auf Genauigkeit und Durchführbarkeit untersucht wurden. Unabhängig von der Transmitterpositionierung wurde ein Algorithmus zur Schätzung der Empfängerposition erweitert, wodurch dieser an Genauigkeit und Robustheit gewinnt. Durch die neuen Verfahren der Transmitter- und Empfängerpositionslösung lässt sich der Demonstrator, unter bestimmten Vorraussetzungen, ohne DGPS-Dienste innerhalb der erforderlichen Genauigkeit betreiben.
Die Firma Astrium GmbH hat ein Indoor-Navigations-System namens ILT (Indoor Localization Technology) entwickelt. Das System, welches in Form eines Demonstrators vorliegt, ist in der Lage mittels terrestrischer Radio-Navigation die Position eines Empfängers in Gebäuden zu bestimmen. Die Position wird durch Streckenmessungen zwischen mehreren Transmittern und einem Empfänger bestimmt. Der Fokus dieser Arbeit liegt auf der GPS-Positionsbestimmung der Transmitter und dessen Einfluss auf die Positionslösung des Empfängers. Dabei kommen Verfahren zu einer schnellen und genauen GPS-Positionsbestimmung, welche unabhängig von DGPS-Diensten (z.B. SAPOS oder APOS) arbeiten, zum Einsatz. Zur Unterstützung und Verbesserung der GPS-basierten Transmitterpositionierung wurden alternative Einmessverfahren implementiert und analysiert. Die Verfahren wurden in unterschiedlichen Arealen getestet und miteinander verglichen. Weiters beschreibt die Arbeit auch Alternativen zur absoluten GPS-Positionierung, welche auf Genauigkeit und Durchführbarkeit untersucht wurden. Unabhängig von der Transmitterpositionierung wurde ein Algorithmus zur Schätzung der Empfängerposition erweitert, wodurch dieser an Genauigkeit und Robustheit gewinnt. Durch die neuen Verfahren der Transmitter- und Empfängerpositionslösung lässt sich der Demonstrator, unter bestimmten Vorraussetzungen, ohne DGPS-Dienste innerhalb der erforderlichen Genauigkeit betreiben.
Geovisualisierung am GIS-Steiermark: Automatisierte Erstellung und Aktualisierung topographischer Karten aus GIS- und Laserscan-Daten
Institut für Geoinformation, Technische Universität Graz, 2011
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Die vorliegende Arbeit beschäftigt sich mit der Erstellung einer topographischen Karte aus GIS-Daten für den Referenzmaßstab 1:50.000.Das Hauptaugenmerk liegt dabei auf der Automatisierung des Erstellungsprozesses und der problemlosen Aktualisierung der Eingangsdaten. Die Untersuchungen werden in einem Testgebiet in der Steiermark durchgeführt. Das fertige Endprodukt soll quasi „auf Knopfdruck“ erstellt werden und es soll dabei so wenig wie möglich manuell in den Ablaufprozess eingegriffen werden. Am GIS-Steiermark soll diese Übersichtskarte als Orientierungshilfe für darüber gelagerte Fachdaten dienen. Zuerst erfolgt eine Bearbeitung der Eingangsdaten durch Modelle, die als Prozessketten abgearbeitet werden. Dabei geht es hauptsächlich um die Generalisierung der Daten bezogen auf den Referenzmaßstab. Die Ergebnisse der Modelle werden dann automatisch in einer geeigneten Art symbolisiert und beschriftet. Diese Zuweisungen werden über Layer-Files bewerkstelligt. Anschließend werden die generierten Daten in ein kartographisches Layout eingebettet. Zum Schluss wird neben der Verwendung von GIS-Daten auch die Möglichkeit der Integration von Laserscan-Daten beleuchtet und es werden vor allem die benötigten Vorverarbeitungsschritte genauer analysiert. Die Verwendung von Laserscan-Daten soll als Alternative zu den gewöhnlichen GIS-Daten gesehen werden.
Die vorliegende Arbeit beschäftigt sich mit der Erstellung einer topographischen Karte aus GIS-Daten für den Referenzmaßstab 1:50.000.Das Hauptaugenmerk liegt dabei auf der Automatisierung des Erstellungsprozesses und der problemlosen Aktualisierung der Eingangsdaten. Die Untersuchungen werden in einem Testgebiet in der Steiermark durchgeführt. Das fertige Endprodukt soll quasi „auf Knopfdruck“ erstellt werden und es soll dabei so wenig wie möglich manuell in den Ablaufprozess eingegriffen werden. Am GIS-Steiermark soll diese Übersichtskarte als Orientierungshilfe für darüber gelagerte Fachdaten dienen. Zuerst erfolgt eine Bearbeitung der Eingangsdaten durch Modelle, die als Prozessketten abgearbeitet werden. Dabei geht es hauptsächlich um die Generalisierung der Daten bezogen auf den Referenzmaßstab. Die Ergebnisse der Modelle werden dann automatisch in einer geeigneten Art symbolisiert und beschriftet. Diese Zuweisungen werden über Layer-Files bewerkstelligt. Anschließend werden die generierten Daten in ein kartographisches Layout eingebettet. Zum Schluss wird neben der Verwendung von GIS-Daten auch die Möglichkeit der Integration von Laserscan-Daten beleuchtet und es werden vor allem die benötigten Vorverarbeitungsschritte genauer analysiert. Die Verwendung von Laserscan-Daten soll als Alternative zu den gewöhnlichen GIS-Daten gesehen werden.
WITTER - Weather Twitter
Institut für Geoinformation, Technische Universität Graz, 2011
Betreuer: Dipl.-Ing. Dr. Clemens Strauß
Betreuer: Dipl.-Ing. Dr. Clemens Strauß
Kurzfassung/Abstract
Die vorliegende Masterarbeit mit dem Titel WITTER - Weather Twitter beinhaltet die Vorgangsweise bei der programmatischen Umsetzung einer WebGIS Applikation zur Einmeldung und Darstellung von aktuellen Wetterinformationen. Der theoretische Teil der Arbeit beschäftigt sich mit Positionierungsmethoden von Mobiltelefonen und Desktop PCs, die im Rahmen von standortbezogenen Diensten (Location Based Services (LBS)) zur Verwendung kommen. Dabei wurde besonders die Nutzung der Positionsinformation in Verbindung mit einem Internetbrowser mithilfe der World Wide Web Consortium (W3C) Geolocation Application Programming Interface (API), einer Web-Schnittstelle zur Positionsbestimmung, untersucht. In weiterer Folge wird auf verschiedene Wetterdienste und Möglichkeiten der Datenbeschaffung eingegangen. Zu guter Letzt werden der Aufbau einer Dateninfrastruktur, sowie mögliche Lösungen zur Darstellung der Daten beleuchtet. Der praktische Teil der Arbeit beinhaltet die Umsetzung einer Webseite zum Einmelden und Darstellen von Wetterdaten, sowie die dahinter liegende Geodateninfrastruktur (GDI). Diese "Weather Twitter" genannte WebGIS Applikation wurde mit besonderem Augenmerk auf Open-Source-Software (OSS) umgesetzt. Die Positionierung des Benutzers erfolgt dabei wenn möglich auf Basis der W3C Geolocation API Spezifikation. Desweiteren werden die Wetterdaten im Sinne der Interoperabilität einer iPhone/Android-Applikation über eine definierte Schnittstelle zur Weiterverarbeitung bereitgestellt.
Die vorliegende Masterarbeit mit dem Titel WITTER - Weather Twitter beinhaltet die Vorgangsweise bei der programmatischen Umsetzung einer WebGIS Applikation zur Einmeldung und Darstellung von aktuellen Wetterinformationen. Der theoretische Teil der Arbeit beschäftigt sich mit Positionierungsmethoden von Mobiltelefonen und Desktop PCs, die im Rahmen von standortbezogenen Diensten (Location Based Services (LBS)) zur Verwendung kommen. Dabei wurde besonders die Nutzung der Positionsinformation in Verbindung mit einem Internetbrowser mithilfe der World Wide Web Consortium (W3C) Geolocation Application Programming Interface (API), einer Web-Schnittstelle zur Positionsbestimmung, untersucht. In weiterer Folge wird auf verschiedene Wetterdienste und Möglichkeiten der Datenbeschaffung eingegangen. Zu guter Letzt werden der Aufbau einer Dateninfrastruktur, sowie mögliche Lösungen zur Darstellung der Daten beleuchtet. Der praktische Teil der Arbeit beinhaltet die Umsetzung einer Webseite zum Einmelden und Darstellen von Wetterdaten, sowie die dahinter liegende Geodateninfrastruktur (GDI). Diese "Weather Twitter" genannte WebGIS Applikation wurde mit besonderem Augenmerk auf Open-Source-Software (OSS) umgesetzt. Die Positionierung des Benutzers erfolgt dabei wenn möglich auf Basis der W3C Geolocation API Spezifikation. Desweiteren werden die Wetterdaten im Sinne der Interoperabilität einer iPhone/Android-Applikation über eine definierte Schnittstelle zur Weiterverarbeitung bereitgestellt.
Gruppierung von Bewegungsvektoren im 2D- und 3D-Raum mit Fuzzy C-Means Clustering
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser, Univ.-Ass. Dipl.-Ing. Dr. Alexander Reiterer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser, Univ.-Ass. Dipl.-Ing. Dr. Alexander Reiterer
Kurzfassung/Abstract
Clustering Verfahren bieten eine Möglichkeit, Daten schnell und automatisiert zu gruppieren. Auch in der Ingenieurgeodäsie können diese Verfahren verwendet werden, um die Bewegungsvektoren, die z.B. das Ergebnis einer Deformationsanalyse sind, in Gruppen einzuteilen. Die Bewegungsvektoren stellen ein Vektorfeld dar. Daher wird die Bewegung überwachter Punkte durch die jeweilige Anfangsposition (Positionsvektor) und die Verschiebung des Punktes zwischen
zwei Epochen (Differenzvektor) beschrieben. Das Ziel dieser Arbeit ist die Erstellung eines Verfahrens zur Einteilung der Bewegungsvektoren in Cluster, basierend auf einer getrennten Bewertung von Positions- und Differenzvektoren.
Die Differenzvektoren werden in dieser Arbeit durch das bereits etablierte Fuzzy C-Means Clustering Verfahren gruppiert. Das Verfahren ermittelt keine strikte Zuteilung eines Vektors zu einem Cluster, sondern berechnet die graduellen Zugehörigkeiten der Vektoren zu allen Clustern. Diese Zugehörigkeiten werden verwendet, um die geeignete Anzahl der Cluster zu ermitteln. Ziel ist es, durch schrittweise Erhöhung der Clusteranzahl die graduelle Zugehörigkeit der Vektoren zu jeweils einem Cluster solange zu erhöhen, bis ein Grenzwert überschritten wird. Daraufhin erfolgt eine fixe Zuordnung der Bewegungsvektoren zu jenen Clustern, bei denen die größte graduelle Zugehörigkeit ermittelt wurde.
Danach wird überprüft, ob sich die Bewegungsvektoren eines Clusters auch in unmittelbarer Nachbarschaft zueinander befinden. Innerhalb jedes Clusters werden Verbindungen auf Basis der Positionsvektoren aufgebaut. Dann wird überprüft, ob es Verbindungen aus zwei verschiedenen Clustern gibt, die einen gemeinsamen Schnittpunkt haben. Gibt es Bewegungsvektoren, die keine Verbindung aufweisen, werden diese aus dem Cluster aussortiert und bilden eigene Cluster.
Schlussendlich besteht ein Cluster nur mehr aus Bewegungsvektoren, die sich in die gleiche Richtung bewegen und sich in Nachbarschaft zueinander befinden.
Clustering Verfahren bieten eine Möglichkeit, Daten schnell und automatisiert zu gruppieren. Auch in der Ingenieurgeodäsie können diese Verfahren verwendet werden, um die Bewegungsvektoren, die z.B. das Ergebnis einer Deformationsanalyse sind, in Gruppen einzuteilen. Die Bewegungsvektoren stellen ein Vektorfeld dar. Daher wird die Bewegung überwachter Punkte durch die jeweilige Anfangsposition (Positionsvektor) und die Verschiebung des Punktes zwischen
zwei Epochen (Differenzvektor) beschrieben. Das Ziel dieser Arbeit ist die Erstellung eines Verfahrens zur Einteilung der Bewegungsvektoren in Cluster, basierend auf einer getrennten Bewertung von Positions- und Differenzvektoren.
Die Differenzvektoren werden in dieser Arbeit durch das bereits etablierte Fuzzy C-Means Clustering Verfahren gruppiert. Das Verfahren ermittelt keine strikte Zuteilung eines Vektors zu einem Cluster, sondern berechnet die graduellen Zugehörigkeiten der Vektoren zu allen Clustern. Diese Zugehörigkeiten werden verwendet, um die geeignete Anzahl der Cluster zu ermitteln. Ziel ist es, durch schrittweise Erhöhung der Clusteranzahl die graduelle Zugehörigkeit der Vektoren zu jeweils einem Cluster solange zu erhöhen, bis ein Grenzwert überschritten wird. Daraufhin erfolgt eine fixe Zuordnung der Bewegungsvektoren zu jenen Clustern, bei denen die größte graduelle Zugehörigkeit ermittelt wurde.
Danach wird überprüft, ob sich die Bewegungsvektoren eines Clusters auch in unmittelbarer Nachbarschaft zueinander befinden. Innerhalb jedes Clusters werden Verbindungen auf Basis der Positionsvektoren aufgebaut. Dann wird überprüft, ob es Verbindungen aus zwei verschiedenen Clustern gibt, die einen gemeinsamen Schnittpunkt haben. Gibt es Bewegungsvektoren, die keine Verbindung aufweisen, werden diese aus dem Cluster aussortiert und bilden eigene Cluster.
Schlussendlich besteht ein Cluster nur mehr aus Bewegungsvektoren, die sich in die gleiche Richtung bewegen und sich in Nachbarschaft zueinander befinden.
Smartec SOFO V - Untersuchungen zur Langzeitstabilität und zum Temperaturverhalten von Sensoren
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2010
Betreuer: o.Univ.Prof. Dr. Fritz K. Brunner
Betreuer: o.Univ.Prof. Dr. Fritz K. Brunner
Kurzfassung/Abstract
Ziel dieser Masterarbeit war die Untersuchung des faseroptischen Messsystems SOFO Static V der Firma Smartec SA (Manno, Schweiz) hinsichtlich der Langzeitstabilität von in Bauwerken oder im Boden eingebetteten SOFO Sensoren. Es sollen Aussagen über die Messbarkeit ermöglicht werden, ob und wann ein Sensor unbrauchbar werden kann, bzw. ob sich das durch entsprechende Signaturen im Messsignal frühzeitig ankündigt. Zu diesem Zweck wurden Langzeitmessungen seit 2002 von eingebetteten Sensoren an einer monolithischen Hangbrücke nahe Schladming (Österreich) analysiert. Dabei konnte festgestellt werden, dass Intensitäten der LED des Messinstruments alleine keinen Aufschluss über den Zustand eines Sensors geben können. Bei einigen Sensoren konnte in den Signaturen im Messsignal ein Trend ermittelt werden, der auf einen Alterungsprozess schließen lässt. Eine genaue Ableitung der Lebensdauer war dadurch aber nicht möglich. Zusätzlich wurde eine kritische Signalstruktur definiert, bei der Sensorausfälle jederzeit vorkommen können. Weiters wurden im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme an der TU Graz Versuche zur künstlichen Signalabschwächung und zum Temperaturverhalten der SOFO Static Reading Unit durchgeführt. Die Abschwächung des Messsignals wurde durch Wicklungen des Verbindungskabels um ein Metallrohr realisiert. Es wurde gezeigt, dass bei starker Abschwächung eine kritische Signalstruktur erreicht wird. Auf die Messwerte selbst hat die Abschwächung nur bedingt Einfluss. Um Auswirkungen von Temperaturänderungen zu ermitteln, wurden mit der SOFO Static Reading Unit Versuche bei verschiedenen Temperaturen in der Klimabox durchgeführt. Diese Versuche zeigten eine Abhängigkeit der Messwerte von der Temperatur der Reading Unit von -10 ppm/°K. Ebenfalls eine Temperaturabhängigkeit konnte sowohl bei den Intensitäten der LED des Messinstruments als auch der Signalstruktur selbst ermittelt werden.
Ziel dieser Masterarbeit war die Untersuchung des faseroptischen Messsystems SOFO Static V der Firma Smartec SA (Manno, Schweiz) hinsichtlich der Langzeitstabilität von in Bauwerken oder im Boden eingebetteten SOFO Sensoren. Es sollen Aussagen über die Messbarkeit ermöglicht werden, ob und wann ein Sensor unbrauchbar werden kann, bzw. ob sich das durch entsprechende Signaturen im Messsignal frühzeitig ankündigt. Zu diesem Zweck wurden Langzeitmessungen seit 2002 von eingebetteten Sensoren an einer monolithischen Hangbrücke nahe Schladming (Österreich) analysiert. Dabei konnte festgestellt werden, dass Intensitäten der LED des Messinstruments alleine keinen Aufschluss über den Zustand eines Sensors geben können. Bei einigen Sensoren konnte in den Signaturen im Messsignal ein Trend ermittelt werden, der auf einen Alterungsprozess schließen lässt. Eine genaue Ableitung der Lebensdauer war dadurch aber nicht möglich. Zusätzlich wurde eine kritische Signalstruktur definiert, bei der Sensorausfälle jederzeit vorkommen können. Weiters wurden im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme an der TU Graz Versuche zur künstlichen Signalabschwächung und zum Temperaturverhalten der SOFO Static Reading Unit durchgeführt. Die Abschwächung des Messsignals wurde durch Wicklungen des Verbindungskabels um ein Metallrohr realisiert. Es wurde gezeigt, dass bei starker Abschwächung eine kritische Signalstruktur erreicht wird. Auf die Messwerte selbst hat die Abschwächung nur bedingt Einfluss. Um Auswirkungen von Temperaturänderungen zu ermitteln, wurden mit der SOFO Static Reading Unit Versuche bei verschiedenen Temperaturen in der Klimabox durchgeführt. Diese Versuche zeigten eine Abhängigkeit der Messwerte von der Temperatur der Reading Unit von -10 ppm/°K. Ebenfalls eine Temperaturabhängigkeit konnte sowohl bei den Intensitäten der LED des Messinstruments als auch der Signalstruktur selbst ermittelt werden.
Ableitung der Beschirmung von Waldbeständen aus hochauflösenden Satellitenbildern
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2010
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Diese Masterarbeit beschäftigt sich mit der Ermittlung des Waldmerkmals Beschirmung durch Verfahren der Fernerkundung. Zu diesen Verfahren gehört die überwachte Klassifizierung, welche aufgrund von spektralen Merkmalen Bildelemente (Pixel) Klassen zuweist. Dazu werden Informationen benötigt, die über Referenzdaten (Trainingsgebiete) gewonnen werden. Ein Teil dieser Arbeit ist der Aufnahme der Referenzdaten und deren Überschirmungsgrad gewidmet. Die Reflexion dieser Referenzdaten wird anhand von Untersuchungsgebieten auf der Basis von Bildern der Satelliten Spot 4 und IRS P6 analysiert. Neben den spektralen Bildkanälen werden auch synthetisch erstellte Kanäle auf Zusammenhänge zwischen Reflexion und Beschirmung untersucht. Eine Simulation der Beschattung von Waldbeständen mittels LIDAR - Daten bestätigt die Annahme, dass die Reflexion von Wald deutlich vom Schattenwurf der Baumkronen beeinflusst wird, der in Abhängigkeit vom Beschirmungsgrad variiert. Ein wesentlicher Teil dieser Arbeit befasst sich mit Algorithmen der überwachten Klassifizierung, wobei hier vier Algorithmen genauer beschrieben werden. Neben dem k-Nächsten-Nachbarn Algorithmus und der einfachen linearen Regression sind das zwei neu entwickelte Methoden, welche wie die einfache lineare Regression auf der Regressionsanalyse aufbauen. Die Methoden werden miteinander durch das statistische Verfahren der Kreuzvalidierung verglichen und deren Vorzüge bzw. deren Mängel aufgezeigt und diskutiert. Eine finale Klassifizierung mit einer geeigneten Methode zeigt die Tauglichkeit und Grenzen der entwickelten Methoden für die praktische Anwendung.
Diese Masterarbeit beschäftigt sich mit der Ermittlung des Waldmerkmals Beschirmung durch Verfahren der Fernerkundung. Zu diesen Verfahren gehört die überwachte Klassifizierung, welche aufgrund von spektralen Merkmalen Bildelemente (Pixel) Klassen zuweist. Dazu werden Informationen benötigt, die über Referenzdaten (Trainingsgebiete) gewonnen werden. Ein Teil dieser Arbeit ist der Aufnahme der Referenzdaten und deren Überschirmungsgrad gewidmet. Die Reflexion dieser Referenzdaten wird anhand von Untersuchungsgebieten auf der Basis von Bildern der Satelliten Spot 4 und IRS P6 analysiert. Neben den spektralen Bildkanälen werden auch synthetisch erstellte Kanäle auf Zusammenhänge zwischen Reflexion und Beschirmung untersucht. Eine Simulation der Beschattung von Waldbeständen mittels LIDAR - Daten bestätigt die Annahme, dass die Reflexion von Wald deutlich vom Schattenwurf der Baumkronen beeinflusst wird, der in Abhängigkeit vom Beschirmungsgrad variiert. Ein wesentlicher Teil dieser Arbeit befasst sich mit Algorithmen der überwachten Klassifizierung, wobei hier vier Algorithmen genauer beschrieben werden. Neben dem k-Nächsten-Nachbarn Algorithmus und der einfachen linearen Regression sind das zwei neu entwickelte Methoden, welche wie die einfache lineare Regression auf der Regressionsanalyse aufbauen. Die Methoden werden miteinander durch das statistische Verfahren der Kreuzvalidierung verglichen und deren Vorzüge bzw. deren Mängel aufgezeigt und diskutiert. Eine finale Klassifizierung mit einer geeigneten Methode zeigt die Tauglichkeit und Grenzen der entwickelten Methoden für die praktische Anwendung.
Einfluss des Koordinatenrahmens auf die Positionierung mittels Satellitennavigationssystemen
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2010
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
In den letzten Jahren nahm der Auf- und Ausbau von GNSS-Referenzstationsnetzen sowohl auf internationaler wie auch nationaler Ebene kontinuierlich zu. Die damit realisierbare präzise satellitengestützte Positionierung erfolgt im Wesentlichen vorerst in globalen geozentrisch gelagerten Referenzrahmen, welche als Realisierungen des ITRS zur Verfügung stehen. Für Europa steht zusätzlich ein vom ITRS abgeleitetes System (ETRS89) zur Verfügung, welches der Rotation der eurasischen Platte nachgeführt und von den nationalen Landesvermessungsbehörden zur Nutzung empfohlen wird. Um schließlich die im Bereich der praktischen Vermessung benötigten Landeskoordinaten zu erhalten, werden die ITRS- oder ETRS89-Koordinaten in das nationale Datum transformiert und verebnet. Um hochgenaue GPS-Auswerteergebnisse bei mittleren und großen Netzausdehnungen im mm-Bereich zu erzielen, muss eine konsistente Verwendung der Referenzsysteme bzw. Koordinatenrahmen, auf die sich die Satellitenkoordinaten und die Koordinaten der terrestrischen Referenzstationen beziehen, gewährleistet sein. Da die meist genutzte präzise Bahninformation des IGS sich auf den aktuellen ITRF bezieht, ist eine gleichzeitige Nutzung der ETRS89 Koordinaten der Referenzstationen in aller Strenge unzulässig. Für die Transformation von Stationskoordinaten zwischen den verschiedenen Koordinatenrahmen des ITRS und ETRS89 werden vom IERS Transformationsmodelle empfohlen. Der Einfluss inkonsistenter Koordinatenrahmen wird am Beispiel einer regionalen GPS-Kampagne untersucht. Es werden GPS-Beobachtungsdaten einer 24-Stunden Session unter Verwendung von präzisen IGS-Bahnen als auch Broadcastephemeriden mit der GPS-Software Bernese ausgewertet.
Hierbei werden Koordinatensätze im globalen Referenzrahmen ITRF2000 und im kontinentalen Referenzrahmen ETRF89 generiert und einem eingehenden Vergleich unterzogen.
In den letzten Jahren nahm der Auf- und Ausbau von GNSS-Referenzstationsnetzen sowohl auf internationaler wie auch nationaler Ebene kontinuierlich zu. Die damit realisierbare präzise satellitengestützte Positionierung erfolgt im Wesentlichen vorerst in globalen geozentrisch gelagerten Referenzrahmen, welche als Realisierungen des ITRS zur Verfügung stehen. Für Europa steht zusätzlich ein vom ITRS abgeleitetes System (ETRS89) zur Verfügung, welches der Rotation der eurasischen Platte nachgeführt und von den nationalen Landesvermessungsbehörden zur Nutzung empfohlen wird. Um schließlich die im Bereich der praktischen Vermessung benötigten Landeskoordinaten zu erhalten, werden die ITRS- oder ETRS89-Koordinaten in das nationale Datum transformiert und verebnet. Um hochgenaue GPS-Auswerteergebnisse bei mittleren und großen Netzausdehnungen im mm-Bereich zu erzielen, muss eine konsistente Verwendung der Referenzsysteme bzw. Koordinatenrahmen, auf die sich die Satellitenkoordinaten und die Koordinaten der terrestrischen Referenzstationen beziehen, gewährleistet sein. Da die meist genutzte präzise Bahninformation des IGS sich auf den aktuellen ITRF bezieht, ist eine gleichzeitige Nutzung der ETRS89 Koordinaten der Referenzstationen in aller Strenge unzulässig. Für die Transformation von Stationskoordinaten zwischen den verschiedenen Koordinatenrahmen des ITRS und ETRS89 werden vom IERS Transformationsmodelle empfohlen. Der Einfluss inkonsistenter Koordinatenrahmen wird am Beispiel einer regionalen GPS-Kampagne untersucht. Es werden GPS-Beobachtungsdaten einer 24-Stunden Session unter Verwendung von präzisen IGS-Bahnen als auch Broadcastephemeriden mit der GPS-Software Bernese ausgewertet.
Hierbei werden Koordinatensätze im globalen Referenzrahmen ITRF2000 und im kontinentalen Referenzrahmen ETRF89 generiert und einem eingehenden Vergleich unterzogen.
Semantische Modelltransformation im Kontext von INSPIRE
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2011
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
Durch den Aufbau einer Europäischen Geodateninfrastruktur (EGDI), die in der EU-Richtlinie INSPIRE (Infrastructure for Spatial Information in the European Community) 2007/2/EG festgelegt und definiert wurde, müssen die länderspezifischen Geodaten in eine INSPIRE konforme Spezifikation gebracht werden. Die Richtlinie verlangt von allen Mitgliedstaaten der Europäischen Union, Geodaten mithilfe von Web Services entsprechend, einheitlich definierten Datenmodellen und Netzdiensten bereitzustellen. Länder bzw. deren Behörden (Vermessungsverwaltungen und andere Datenhersteller) halten aber ihre Geodaten in unterschiedlichen Systemen, Datenmodellen und -formaten vorhalten. Diese Datenmodelle können mitunter sehr stark voneinander abweichen. Um das INSPIRE-Datenmodell innerhalb Europa mit möglichst geringem Aufwand zu etablieren, sollen die unterschiedlichen Datenmodelle mithilfe von Modelltransformationsdiensten in ein einheitliches Zielmodell übergeführt werden. Durch diese Modelltransformationsdienste sollen jedoch nicht die originären Datenbestände geändert werden, sondern nur die Abgabedaten in das Zielmodell transformiert werden. In diesem Zusammenhang ist der Begriff der Interoperabilität sehr wichtig. Unter Interoperabilität wird die Fähigkeit zur Zusammenarbeit von Systemen, unabhängig von Hard- und Software, verstanden. Daher wird es durch Interoperabilität ermöglicht, über Webservices auf verschiedene Geodaten zuzugreifen und diese auch zu verwenden, ohne dass diese in den eigenen Datenbestand integriert sind.
Der eigentliche Vorgang der Modelltransformation kann in zwei Phasen unterteilt werden: in die Konfigurationsphase und in die Ausführungsphase. In der Konfigurationsphase werden das Quell- und Zielmodell analysiert. Das Quellmodell und das Zielmodell werden in dieser Phase zueinander in Beziehung gesetzt. Es wird bestimmt, welche Elemente aus dem Quellschema in Elemente aus dem Zielschema überführt werden können. Die Transformationsregeln legen fest, wie die Abbildung durchzuführen ist. In der anschließenden Ausführungsphase werden die zuvor erstellten Transformationsregeln auf das Modell angewendet.
Ziel dieser Diplomarbeit ist die Erarbeitung und Durchführung einer semantischen Modelltransformation. Dabei wird als Quellmodell ein Testdatensatz der Digitalen Katastralmappe und Sachdaten aus der Grundstücksdatenbank des Bundesamt für Eich- und Vermessungswesen und als Zielmodell das INSPIRE Datenmodell "Cadastral Parcels" verwendet.
Durch den Aufbau einer Europäischen Geodateninfrastruktur (EGDI), die in der EU-Richtlinie INSPIRE (Infrastructure for Spatial Information in the European Community) 2007/2/EG festgelegt und definiert wurde, müssen die länderspezifischen Geodaten in eine INSPIRE konforme Spezifikation gebracht werden. Die Richtlinie verlangt von allen Mitgliedstaaten der Europäischen Union, Geodaten mithilfe von Web Services entsprechend, einheitlich definierten Datenmodellen und Netzdiensten bereitzustellen. Länder bzw. deren Behörden (Vermessungsverwaltungen und andere Datenhersteller) halten aber ihre Geodaten in unterschiedlichen Systemen, Datenmodellen und -formaten vorhalten. Diese Datenmodelle können mitunter sehr stark voneinander abweichen. Um das INSPIRE-Datenmodell innerhalb Europa mit möglichst geringem Aufwand zu etablieren, sollen die unterschiedlichen Datenmodelle mithilfe von Modelltransformationsdiensten in ein einheitliches Zielmodell übergeführt werden. Durch diese Modelltransformationsdienste sollen jedoch nicht die originären Datenbestände geändert werden, sondern nur die Abgabedaten in das Zielmodell transformiert werden. In diesem Zusammenhang ist der Begriff der Interoperabilität sehr wichtig. Unter Interoperabilität wird die Fähigkeit zur Zusammenarbeit von Systemen, unabhängig von Hard- und Software, verstanden. Daher wird es durch Interoperabilität ermöglicht, über Webservices auf verschiedene Geodaten zuzugreifen und diese auch zu verwenden, ohne dass diese in den eigenen Datenbestand integriert sind.
Der eigentliche Vorgang der Modelltransformation kann in zwei Phasen unterteilt werden: in die Konfigurationsphase und in die Ausführungsphase. In der Konfigurationsphase werden das Quell- und Zielmodell analysiert. Das Quellmodell und das Zielmodell werden in dieser Phase zueinander in Beziehung gesetzt. Es wird bestimmt, welche Elemente aus dem Quellschema in Elemente aus dem Zielschema überführt werden können. Die Transformationsregeln legen fest, wie die Abbildung durchzuführen ist. In der anschließenden Ausführungsphase werden die zuvor erstellten Transformationsregeln auf das Modell angewendet.
Ziel dieser Diplomarbeit ist die Erarbeitung und Durchführung einer semantischen Modelltransformation. Dabei wird als Quellmodell ein Testdatensatz der Digitalen Katastralmappe und Sachdaten aus der Grundstücksdatenbank des Bundesamt für Eich- und Vermessungswesen und als Zielmodell das INSPIRE Datenmodell "Cadastral Parcels" verwendet.
MODIS for Monitoring Forest Degradation in the Republic of Congo
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2011
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
In den weltweiten Bemühungen zur Minderungen der anthropogenen Klimaveränderungen auf dieser Welt spielt die Initiative "Reducing Emissions from Deforestastion and Forest Degradation" (REDD) eine zentrale Rolle. Dieses Programm versucht die weltweiten Abholzungsvorgänge und die damit einhergehenden CO2 Emissionen zu qantifizieren, zu überwachen und nicht zukünftig zu vermeiden. REDD bietet Ländern, die reich an Waldbeständen sind, Ausgleichszahlungen für das Nicht-Abholzen ihrer Waldbestände. Dafür werden Quantifizierungsmechanismen benötigt, um die Abholzungsvorgänge in Zahlen fassen zu können. Diese Masterarbeit untersucht die Möglichkeiten des Satellitenprogramms MODIS (Moderate-resolution Imaging Spectroradiometer) der NASA für diese Anwendung. MODIS bietet weltweite Beobachtungen in hoher temporaler und niedriger räumlicher Auflösungen. Verschiedene Analysentechniken werden untersucht. Die Ergebnisse der Untersuchungen zeigen, dass das untersuchte Datenmaterial für diese Anwendung nicht geeignet ist. Gründe hierfür ist die zu starke Wolkenbedeckung im Untersuchungsgebiet, die keine temporal hochauflösenden Zeitreihen zulässt.
In den weltweiten Bemühungen zur Minderungen der anthropogenen Klimaveränderungen auf dieser Welt spielt die Initiative "Reducing Emissions from Deforestastion and Forest Degradation" (REDD) eine zentrale Rolle. Dieses Programm versucht die weltweiten Abholzungsvorgänge und die damit einhergehenden CO2 Emissionen zu qantifizieren, zu überwachen und nicht zukünftig zu vermeiden. REDD bietet Ländern, die reich an Waldbeständen sind, Ausgleichszahlungen für das Nicht-Abholzen ihrer Waldbestände. Dafür werden Quantifizierungsmechanismen benötigt, um die Abholzungsvorgänge in Zahlen fassen zu können. Diese Masterarbeit untersucht die Möglichkeiten des Satellitenprogramms MODIS (Moderate-resolution Imaging Spectroradiometer) der NASA für diese Anwendung. MODIS bietet weltweite Beobachtungen in hoher temporaler und niedriger räumlicher Auflösungen. Verschiedene Analysentechniken werden untersucht. Die Ergebnisse der Untersuchungen zeigen, dass das untersuchte Datenmaterial für diese Anwendung nicht geeignet ist. Gründe hierfür ist die zu starke Wolkenbedeckung im Untersuchungsgebiet, die keine temporal hochauflösenden Zeitreihen zulässt.
Spezifizierung der Anforderungen an eine elektronische Flugplatzgelände- und Flugplatzhinderniskarte
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2011
Betreuer: Dipl.-Ing. Brigitte Rudel
Betreuer: Dipl.-Ing. Brigitte Rudel
Kurzfassung/Abstract
Im Zuge dieser Masterarbeit werden Anforderungen bezüglich Kartenausschnitt, Karteninhalt, Datenqualität und elektronischer Funktionalität für eine elektronische, webbasierte Flugplatzgelände- und Flugplatzhinderniskarte, welche durch die Internationale Zivilluftfahrtorganisation (ICAO) beschrieben wird, aus Sicht der Geoinformatik erarbeitet. Anhand von internationalen und nationalen Vorgaben und Richtlinien wird ein auf die Austro Control GmbH (ACG) abgestimmtes Anforderungsprofil erstellt und mit dem bestehenden Daten- und Kartenbestand der ACG verglichen. Basierend auf diesem Anforderungsprofil wird eine vollständige Datenproduktspezifikation (DPS) gemäß ISO 19131 (Data Product Specifications) und ICAO Annex 4 (Aeronautical Charts) entwickelt, mit bestehenden Systemen verglichen und in einer Problemanalyse diskutiert.
Im Zuge dieser Masterarbeit werden Anforderungen bezüglich Kartenausschnitt, Karteninhalt, Datenqualität und elektronischer Funktionalität für eine elektronische, webbasierte Flugplatzgelände- und Flugplatzhinderniskarte, welche durch die Internationale Zivilluftfahrtorganisation (ICAO) beschrieben wird, aus Sicht der Geoinformatik erarbeitet. Anhand von internationalen und nationalen Vorgaben und Richtlinien wird ein auf die Austro Control GmbH (ACG) abgestimmtes Anforderungsprofil erstellt und mit dem bestehenden Daten- und Kartenbestand der ACG verglichen. Basierend auf diesem Anforderungsprofil wird eine vollständige Datenproduktspezifikation (DPS) gemäß ISO 19131 (Data Product Specifications) und ICAO Annex 4 (Aeronautical Charts) entwickelt, mit bestehenden Systemen verglichen und in einer Problemanalyse diskutiert.
Assessment and Implementation of New Location Based Smartphone Technologies for Sport and Touristic Applications
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2011
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
This thesis is mainly focused on the iPointer technology and demonstrates how the iPointer technology can better serve the location needs of the tourists and their interactions with the surroundings in a smart way. A better challenge is to make the technology work for the upcoming World Ski Championships going to be held in Schladming in 2013. This event is going to attract billions of tourists all around the world and the main challenge is to asses and implement the capabilities of new iPointer technology for both sport and touristic explorations. Certain scenarios and use cases are been developed to make the technology work by considering the touristic needs around Schladming area. The prototype of the application is been developed on Android phone which incorporates the powerful capability of pointing and retrieving data functionality from the iPointer system.
This thesis is mainly focused on the iPointer technology and demonstrates how the iPointer technology can better serve the location needs of the tourists and their interactions with the surroundings in a smart way. A better challenge is to make the technology work for the upcoming World Ski Championships going to be held in Schladming in 2013. This event is going to attract billions of tourists all around the world and the main challenge is to asses and implement the capabilities of new iPointer technology for both sport and touristic explorations. Certain scenarios and use cases are been developed to make the technology work by considering the touristic needs around Schladming area. The prototype of the application is been developed on Android phone which incorporates the powerful capability of pointing and retrieving data functionality from the iPointer system.
Evaluierung von LBS-Architekturen am Beispiel von Campus 2011
Institut für Geoinformation, Technische Universität Graz, 2011
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
In der heutigen stark vernetzten Welt gibt es eine Fülle an Informationen aus verschiedensten Quellen, welche einem Benutzer zur Verfügung stehen. Damit man sich noch zurechtfindet, müssen diese Informationen für den Endkunden gefiltert und aufbereitet werden. Eine Ausprägung dieses Prozesses stellen Location Based Services (LBS) dar, welche die Information auf Grund des aktuellen Aufenthaltsorts des Benutzers verarbeiten. Auch im Bereich einer Universität, für deren örtliche, semantische und geschichtliche Gegebenheiten gibt es unzählige Informationen, welche durch die unterschiedlichen Beteiligten entstehen. Das Campus 2011 System verknüpft diese Informationen und präsentiert sie einem Benutzer. Diese Arbeit beschäftigt sich zuerst mit den grundlegenden Begriffen wie LBS und den Anforderungen des Campus 2011 Systems. Um ein möglichst offenes und zukunftssicheres System zu ermöglichen, wird insbesondere auf die Verwendung von Standards und Normen Wert gelegt. Die daraus entstehenden Anforderungen und Strukturen werden auf die Architektur eines Campus 2011 Systems angewendet. Im letzten Abschnitt beschäftigt sich diese Arbeit mit Methoden und Technologien, welche zur tatsächlichen Implementierung eines Campus 2011 Systems verwendet werden können.
In der heutigen stark vernetzten Welt gibt es eine Fülle an Informationen aus verschiedensten Quellen, welche einem Benutzer zur Verfügung stehen. Damit man sich noch zurechtfindet, müssen diese Informationen für den Endkunden gefiltert und aufbereitet werden. Eine Ausprägung dieses Prozesses stellen Location Based Services (LBS) dar, welche die Information auf Grund des aktuellen Aufenthaltsorts des Benutzers verarbeiten. Auch im Bereich einer Universität, für deren örtliche, semantische und geschichtliche Gegebenheiten gibt es unzählige Informationen, welche durch die unterschiedlichen Beteiligten entstehen. Das Campus 2011 System verknüpft diese Informationen und präsentiert sie einem Benutzer. Diese Arbeit beschäftigt sich zuerst mit den grundlegenden Begriffen wie LBS und den Anforderungen des Campus 2011 Systems. Um ein möglichst offenes und zukunftssicheres System zu ermöglichen, wird insbesondere auf die Verwendung von Standards und Normen Wert gelegt. Die daraus entstehenden Anforderungen und Strukturen werden auf die Architektur eines Campus 2011 Systems angewendet. Im letzten Abschnitt beschäftigt sich diese Arbeit mit Methoden und Technologien, welche zur tatsächlichen Implementierung eines Campus 2011 Systems verwendet werden können.
Aktive vertikale Krustenbewegungen in Ostösterreich
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Wieser
Kurzfassung/Abstract
In der vorliegenden Diplomarbeit werden Vertikalbewegungen von Höhenfestpunkten bearbeitet und geologisch interpretiert. Hauptziel ist es festzustellen, ob und wieviel dieser Höhenänderungen auf aktive geologische Prozesse zurückzuführen sind. Als Beobachtungen dienen Präzisionsnivellementzüge des Bundesamt für Eich- und Vermessungswesen (BEV) entlang seiner österreichweit verteilten Höhenfestpunkte. Das Beobachtungsgebiet umfasst den nordöstlichen Teil von Österreich und
reicht von Horn in Niederösterreich bis zum Neusiedlersee im Burgenland. Dieses Untersuchungsgebiet wurde gewählt, da es mehrere tektonische Einheiten und Störungszonen quert.
Österreich liegt in einem Gebiet, in dem plattentektonische Vorgänge nicht sehr aktiv sind. Daher müssen möglichst alte Nivellementmessungen aus dem Archiv des BEV erhoben werden, um eine größtmögliche Zeitspanne abzudecken. Erst dadurch wird es möglich, neben Messungenauigkeiten und nicht-tektonischen Vertikalbewegungen mögliche rezente Krustenbewegungen herauszufiltern. Nach der Erfassung der Messdaten werden die Linien des gesamten Untersuchungsgebietes zu Nivellementschleifen zusammengesetzt um so den Bezug aller Höhenmessungen auf ein und denselben Referenzpunkt setzen zu können. Als Bezugspunkt wird ein Höhenfestpunkt in Horn verwendet, der aufgrund seines geologischen Untergrundes als weitgehend stabil (geringes Eigenbewegungsverhalten) angenommen werden kann. Neben kleinräumigen Vertikalbewegungen, die möglicherweise auf anthropogene Einflüsse oder auf natürliche Vorgänge wie Grundwasserschwankungen zurückzuführen sind, gibt es auch großräumige Trends festzustellen. So zeigt sich, dass sich der südöstliche Teil des Untersuchungsgebietes im Vergleich zu Horn mit etwa 2-3 mm/Jahr absenkt.
Aus den zuvor errechneten Höhenänderungen werden verschiedene Visualisierungen erstellt, die die Daten möglichst gut veranschaulichen sollen. Abschließend wird mit Hilfe dieser Visualisierungen und verschiedener geologischer und geophysikalischer Daten eine Interpretation des Bewegungsverhaltens der Höhenfestpunkte erarbeitet. Aufgrund dieser Untersuchung kann das Senkungsverhalten im Bereich des Wiener Beckens bestätigt werden. Von 1023 Messwerten liegen 99% zwischen -4 und +0,6 mm/Jahr und die am Häufigsten auftretende Bewegungsrate im gesamten Datensatz liegt bei -1,4 mm/Jahr.
In der vorliegenden Diplomarbeit werden Vertikalbewegungen von Höhenfestpunkten bearbeitet und geologisch interpretiert. Hauptziel ist es festzustellen, ob und wieviel dieser Höhenänderungen auf aktive geologische Prozesse zurückzuführen sind. Als Beobachtungen dienen Präzisionsnivellementzüge des Bundesamt für Eich- und Vermessungswesen (BEV) entlang seiner österreichweit verteilten Höhenfestpunkte. Das Beobachtungsgebiet umfasst den nordöstlichen Teil von Österreich und
reicht von Horn in Niederösterreich bis zum Neusiedlersee im Burgenland. Dieses Untersuchungsgebiet wurde gewählt, da es mehrere tektonische Einheiten und Störungszonen quert.
Österreich liegt in einem Gebiet, in dem plattentektonische Vorgänge nicht sehr aktiv sind. Daher müssen möglichst alte Nivellementmessungen aus dem Archiv des BEV erhoben werden, um eine größtmögliche Zeitspanne abzudecken. Erst dadurch wird es möglich, neben Messungenauigkeiten und nicht-tektonischen Vertikalbewegungen mögliche rezente Krustenbewegungen herauszufiltern. Nach der Erfassung der Messdaten werden die Linien des gesamten Untersuchungsgebietes zu Nivellementschleifen zusammengesetzt um so den Bezug aller Höhenmessungen auf ein und denselben Referenzpunkt setzen zu können. Als Bezugspunkt wird ein Höhenfestpunkt in Horn verwendet, der aufgrund seines geologischen Untergrundes als weitgehend stabil (geringes Eigenbewegungsverhalten) angenommen werden kann. Neben kleinräumigen Vertikalbewegungen, die möglicherweise auf anthropogene Einflüsse oder auf natürliche Vorgänge wie Grundwasserschwankungen zurückzuführen sind, gibt es auch großräumige Trends festzustellen. So zeigt sich, dass sich der südöstliche Teil des Untersuchungsgebietes im Vergleich zu Horn mit etwa 2-3 mm/Jahr absenkt.
Aus den zuvor errechneten Höhenänderungen werden verschiedene Visualisierungen erstellt, die die Daten möglichst gut veranschaulichen sollen. Abschließend wird mit Hilfe dieser Visualisierungen und verschiedener geologischer und geophysikalischer Daten eine Interpretation des Bewegungsverhaltens der Höhenfestpunkte erarbeitet. Aufgrund dieser Untersuchung kann das Senkungsverhalten im Bereich des Wiener Beckens bestätigt werden. Von 1023 Messwerten liegen 99% zwischen -4 und +0,6 mm/Jahr und die am Häufigsten auftretende Bewegungsrate im gesamten Datensatz liegt bei -1,4 mm/Jahr.
Impact of temperature and temperature-change on range-cameras
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
Sowohl Einflüsse auf Messdaten und Elektronik wurden nebst dem Zusammenhang zwischen Integrationszeit und interner Temperatur untersucht. Dazu wurden Gehäuse- und interne Temperaturen durchgehend überwacht soweit dies möglich war. Mit steigender Temperatur wurden größere Distanzen und kleinere Amplituden registriert. Eine höhere Sensortemperatur bei längerer Integrationszeit wurde beim SwissRanger 3000 festgestellt. Dunkelstrom im Sensor zeigte einen quadratischen Anstieg mit steigender Temperatur und auch eine Abhängigkeit von der Position des Pixels. Bei der Formstabilität des Sensors selber und vor allem des Gehäuses wurde Raum für Verbesserungen ausgemacht.
Sowohl Einflüsse auf Messdaten und Elektronik wurden nebst dem Zusammenhang zwischen Integrationszeit und interner Temperatur untersucht. Dazu wurden Gehäuse- und interne Temperaturen durchgehend überwacht soweit dies möglich war. Mit steigender Temperatur wurden größere Distanzen und kleinere Amplituden registriert. Eine höhere Sensortemperatur bei längerer Integrationszeit wurde beim SwissRanger 3000 festgestellt. Dunkelstrom im Sensor zeigte einen quadratischen Anstieg mit steigender Temperatur und auch eine Abhängigkeit von der Position des Pixels. Bei der Formstabilität des Sensors selber und vor allem des Gehäuses wurde Raum für Verbesserungen ausgemacht.
Probabilistic Fusion of Ku and C Band Scatterometer Data for Determining the Freeze/Thaw State
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2011
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Der Frier/Tau Zustand (Freeze/Thaw state) der Landschaft kann mit Methoden der Mikrowellenfernerkundung beobachtet und analysiert werden. Da die Bedeutung diverser Einflussfaktoren auf das gemessene Signal s0 eine Funktion der Radarfrequenz ist, erscheint die Kombination unterschiedlicher Datenquellen eine vielversprechende Möglichkeit zur Verbesserung der Ergebnisse.
Angesichts dieser Erkenntnis wird ein neuartiger Sensor-Fusionsalgorithmus vorgestellt, welcher den Frier/Tau (F/T) Zustand anhand von Scatterometerdaten schätzt: QuikScat im Ku-Band und ASCAT im C-Band. Darüber hinaus wird ein weit verbreitetes Backscatter Modell adaptiert. Dieses vereinfacht einerseits der Parametrisierung des Sensor-Fusionsmodells und ermöglicht andrerseits ein besseres Verständnis der Abhängigkeit von s0 von verschiedenen Einflussfaktoren.
Der Sensor-Fusionsalgorithmus basiert auf einem wahrscheinlichkeitstheoretischen Modell, einer Adaption des Hidden Markov Models (HMM). Der F/T Zustand, dessen Wert nicht direkt beobachtbar ist, wird durch eine Markov-Kette beschrieben. Allerdings beinflusst der F/T Zustand die gemessenen Signale: s0 in beiden Frequenzen. Die einfache Struktur des Modells garantiert, dass beispielsweise die Wahrscheinlichkeit des Zustandes an einem einzelnen Tag effizient berechnet werden kann. Der Algorithmus benötigt keine Trainingsdaten; die Parameter werden für jede Zeitreihe geschätzt. Dies wird durch Maximierung der marginalen Likelihood auf Basis des Expectation Maximization Algorithmus erreicht.
Das Verfahren wird anhand eines Testgebiets in Russland und Nordchina (120 - 130 E, 50 - 75 N) analysiert und validiert. Die Zeitreihen der Wahrscheinlichkeit des F/T Zustandes werden mit In-Situ Schnee- und Temperaturmessungen sowie globalen Klimamodellen verglichen. Im Allgemeinen werden Genauigkeiten von mehr als 90% erzielt, jedoch kann der Algorithmus in landwirtschaftlich genutzten Gebieten sowie über blankem Fels im Gebirge versagen. Darüber hinaus bestätigt diese Arbeit die Bedeutung der Kombination zweier verschiedener Frequenzen, da inbesondere trockener Schnee, Vegetation und das Gefrieren des Bodenwassers unterschiedliche Auswirkungen auf s0 im Ku- und C-Band haben.
Der Frier/Tau Zustand (Freeze/Thaw state) der Landschaft kann mit Methoden der Mikrowellenfernerkundung beobachtet und analysiert werden. Da die Bedeutung diverser Einflussfaktoren auf das gemessene Signal s0 eine Funktion der Radarfrequenz ist, erscheint die Kombination unterschiedlicher Datenquellen eine vielversprechende Möglichkeit zur Verbesserung der Ergebnisse.
Angesichts dieser Erkenntnis wird ein neuartiger Sensor-Fusionsalgorithmus vorgestellt, welcher den Frier/Tau (F/T) Zustand anhand von Scatterometerdaten schätzt: QuikScat im Ku-Band und ASCAT im C-Band. Darüber hinaus wird ein weit verbreitetes Backscatter Modell adaptiert. Dieses vereinfacht einerseits der Parametrisierung des Sensor-Fusionsmodells und ermöglicht andrerseits ein besseres Verständnis der Abhängigkeit von s0 von verschiedenen Einflussfaktoren.
Der Sensor-Fusionsalgorithmus basiert auf einem wahrscheinlichkeitstheoretischen Modell, einer Adaption des Hidden Markov Models (HMM). Der F/T Zustand, dessen Wert nicht direkt beobachtbar ist, wird durch eine Markov-Kette beschrieben. Allerdings beinflusst der F/T Zustand die gemessenen Signale: s0 in beiden Frequenzen. Die einfache Struktur des Modells garantiert, dass beispielsweise die Wahrscheinlichkeit des Zustandes an einem einzelnen Tag effizient berechnet werden kann. Der Algorithmus benötigt keine Trainingsdaten; die Parameter werden für jede Zeitreihe geschätzt. Dies wird durch Maximierung der marginalen Likelihood auf Basis des Expectation Maximization Algorithmus erreicht.
Das Verfahren wird anhand eines Testgebiets in Russland und Nordchina (120 - 130 E, 50 - 75 N) analysiert und validiert. Die Zeitreihen der Wahrscheinlichkeit des F/T Zustandes werden mit In-Situ Schnee- und Temperaturmessungen sowie globalen Klimamodellen verglichen. Im Allgemeinen werden Genauigkeiten von mehr als 90% erzielt, jedoch kann der Algorithmus in landwirtschaftlich genutzten Gebieten sowie über blankem Fels im Gebirge versagen. Darüber hinaus bestätigt diese Arbeit die Bedeutung der Kombination zweier verschiedener Frequenzen, da inbesondere trockener Schnee, Vegetation und das Gefrieren des Bodenwassers unterschiedliche Auswirkungen auf s0 im Ku- und C-Band haben.