- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2009
Abschlussarbeiten 2009
Combinatorial Optimization in Geography
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2008
Kurzfassung/Abstract
Die Hauptannahme der These dieser Habilitationsschrift ist, dass wenn geographische Realität durch eine finite Menge von diskreten Elementen repräsentiert wird, dann sollte die Theorie der kombinierten Optimierung für die geographische Analyse ein wirksames Werkzeug sein. Die Diskretisierung - oft werden geographische Elemente verwendet wie Punkte, Linien, und Felder - wird insbesondere beim Erfassen von geographischen Daten und Bearbeiten durch digitale Geräte, wie Geographische Informations Systeme gebraucht.
Die These beginnt mit einer kurzen Einführung des Umfanges und des Inhalts. Die nächsten drei Kapitel untersuchen den Gebrauch von ganzzahliger Programmierung für die Nutzung effizienter Speicherverteilung von Arealeinheiten zu den betreffenden Zielen. Die Konzepte und Techniken die hierbei entwickelt wurden werden an einem praktischen Fall (das Problem des Redistrictings einer Schule), welcher von Felipe Caro, Monique Guignard, and Andreas Weintraub mitverfasst wurde, gezeigt. Diese vier Kaptitel behandeln rein „statische" Fälle in dem Sinn, dass die zugeschriebenen Daten unverändert bleiben. Das letzte Kapitel stellt ein seltsam anmutendes Netzwerk dar - ein Netzwerk, z.B. eine Menge von Linien und Punkten mit numerischen Attributen - dessen Eigenschaften dynamisch von einem Netzwerkbesucher benutzt werden.
Die Hauptannahme der These dieser Habilitationsschrift ist, dass wenn geographische Realität durch eine finite Menge von diskreten Elementen repräsentiert wird, dann sollte die Theorie der kombinierten Optimierung für die geographische Analyse ein wirksames Werkzeug sein. Die Diskretisierung - oft werden geographische Elemente verwendet wie Punkte, Linien, und Felder - wird insbesondere beim Erfassen von geographischen Daten und Bearbeiten durch digitale Geräte, wie Geographische Informations Systeme gebraucht.
Die These beginnt mit einer kurzen Einführung des Umfanges und des Inhalts. Die nächsten drei Kapitel untersuchen den Gebrauch von ganzzahliger Programmierung für die Nutzung effizienter Speicherverteilung von Arealeinheiten zu den betreffenden Zielen. Die Konzepte und Techniken die hierbei entwickelt wurden werden an einem praktischen Fall (das Problem des Redistrictings einer Schule), welcher von Felipe Caro, Monique Guignard, and Andreas Weintraub mitverfasst wurde, gezeigt. Diese vier Kaptitel behandeln rein „statische" Fälle in dem Sinn, dass die zugeschriebenen Daten unverändert bleiben. Das letzte Kapitel stellt ein seltsam anmutendes Netzwerk dar - ein Netzwerk, z.B. eine Menge von Linien und Punkten mit numerischen Attributen - dessen Eigenschaften dynamisch von einem Netzwerkbesucher benutzt werden.
Preference-Based Visual Interaction Spatial Decision Support in Tourist Information Systems
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2008
Begutachter: o.Univ.-Prof. Dr. Andreas Frank, Institut für Geoinformation und Kartographie, Univ.-Prof. Dr. Hannes Werthner, Institut für Softwaretechnik und Interaktive Systeme
Begutachter: o.Univ.-Prof. Dr. Andreas Frank, Institut für Geoinformation und Kartographie, Univ.-Prof. Dr. Hannes Werthner, Institut für Softwaretechnik und Interaktive Systeme
Kurzfassung/Abstract
Viele Informationssysteme bestehen heutzutage aus einer enorm großen Menge an Daten. Durch die graphische Repräsentation dieser Datenbanken in Form von Benutzeroberflächen können Benutzer von Informationssystemen, abgesehen von einer gelungenen Abfrage, mit zwei unterschiedlichen Resultaten konfrontiert sein.
Die vorliegende Arbeit untersucht welche Informationen für eine räumliche Entscheidungssituation notwendig sind und damit Teil des Resultats einer Abfrage sein sollen. In dieser Arbeit wird ein Modell der Relevanten Informationsabfrage durch visuelles Feedback vorgeschlagen. Mit Hilfe dieses Modells können die relevanten Datensätze für eine Entscheidung aus einer Datenbank abgerufen werden.
Als Beispiel dient dieser Arbeit ein Tourist, der seinen Urlaub mit Hilfe eines Tourismusinformationssystems plant. Der Tourist hat zu Beginn des Interaktionsprozesses seine Präferenzen für seinen Urlaub nur partiell definiert. In dem vorgeschlagenen Modell folgt der Benutzer einem rationalen Entscheidungsmodell und ist in der Lage seine Präferenzen, durch eine Benutzeroberfläche, die mit Elementen der Direkten Manipulation ausgestattet ist, zu kommunizieren. Diese interaktive Benutzeroberfläche ist die Voraussetzung für den entwickelten Präferenz-basierten Interaktionsprozess. In diesem Prozess sind die Benutzerpräferenzen in einer Nutzenfunktion kodiert. Die Nutzenfunktion gibt an, was für einen Benutzer in einer bestimmten Situation relevant ist und evaluiert dadurch die Daten in der Datenbank des Tourismusinformationssystems.
Der Präferenz-basierte visuelle Interaktionsprozess besteht aus drei Teilen.
Viele Informationssysteme bestehen heutzutage aus einer enorm großen Menge an Daten. Durch die graphische Repräsentation dieser Datenbanken in Form von Benutzeroberflächen können Benutzer von Informationssystemen, abgesehen von einer gelungenen Abfrage, mit zwei unterschiedlichen Resultaten konfrontiert sein.
- Das Resultat der Abfrage besteht aus einer unüberschaubaren Fülle von Informationen. Für den Benutzer ist es nicht möglich zu entscheiden, welche Information für ein spezifisches Problem nützlich ist.
- Der Benutzer findet keine relevante Information. Das heißt: Die Abfrage führt zu keinem Resultat.
- Der Benutzer kennt die Struktur des Informationssystems nicht.
- Der Benutzer hat seine Präferenzen nicht klar definiert.
- Der Benutzer ist mit den Grenzen der Daten in der Datenbank des Informationssystems nicht vertraut.
Die vorliegende Arbeit untersucht welche Informationen für eine räumliche Entscheidungssituation notwendig sind und damit Teil des Resultats einer Abfrage sein sollen. In dieser Arbeit wird ein Modell der Relevanten Informationsabfrage durch visuelles Feedback vorgeschlagen. Mit Hilfe dieses Modells können die relevanten Datensätze für eine Entscheidung aus einer Datenbank abgerufen werden.
Als Beispiel dient dieser Arbeit ein Tourist, der seinen Urlaub mit Hilfe eines Tourismusinformationssystems plant. Der Tourist hat zu Beginn des Interaktionsprozesses seine Präferenzen für seinen Urlaub nur partiell definiert. In dem vorgeschlagenen Modell folgt der Benutzer einem rationalen Entscheidungsmodell und ist in der Lage seine Präferenzen, durch eine Benutzeroberfläche, die mit Elementen der Direkten Manipulation ausgestattet ist, zu kommunizieren. Diese interaktive Benutzeroberfläche ist die Voraussetzung für den entwickelten Präferenz-basierten Interaktionsprozess. In diesem Prozess sind die Benutzerpräferenzen in einer Nutzenfunktion kodiert. Die Nutzenfunktion gibt an, was für einen Benutzer in einer bestimmten Situation relevant ist und evaluiert dadurch die Daten in der Datenbank des Tourismusinformationssystems.
Der Präferenz-basierte visuelle Interaktionsprozess besteht aus drei Teilen.
- Einem Benutzer, der innerhalb einer Feedback Schleife die Elemente der Benutzeroberfläche und die dort abgebildeten Resultate evaluiert. Das direkte Feedback gibt dem Benutzer Auskunft über die Auswirkungen seiner Aktionen auf das Resultat.
- Einer Datenbank, deren Struktur durch die „preference Impact Analysis" visualisiert wird. Diese Analyse visualisiert die Grenzen der Daten in Relation zum Input des Benutzers. Sowohl der Benutzer als auch die Datenbank werden in dieser Arbeit durch die funktionale Programmiersprache Haskell beschrieben.
- Einer Benutzeroberfläche, die mit der GUI (Graphical User Interface) Bibliothek wxHaskell entworfen wird. Das ermöglicht es das formale Modell direkt über die graphische Benutzeroberfläche anzusprechen.
Model improvements and error characterization for global ERS and METOP scatterometer soil moisture data
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2009
Begutachter: Univ.Prof. Dr. Wolfgang Wagner
Begutachter: Univ.Prof. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Bodenfeuchte ist eine wichtige Variable im hydrologischen Zyklus. Die Verbindung zwischen Energie- und Wasserhaushalt ist durch den Feuchtigkeits- und Temperaturzustand des Bodens an der Bodenoberfläche und Atmosphäre gegeben. Die Entwicklung von Bodenfeuchtedaten ist wichtig für die numerische Wettervorhersage und Klima-Modellierung. Die Kenntnis über die Verteilung der Bodenfeuchte ist essentiell für die Vorhersage des gegenseitigen Einflusses von Prozessen an der Bodenoberfläche (wie z.B. Evaporation, Infiltration und Abfluss) auf Wetter und Klima. Aufgrund der hohen Variabilität der Bodenfeuchte in Raum und Zeit, ist eine gute Raum-Zeit-Darstellung der Bodenfeuchte recht anspruchsvoll. In-situ Beobachtungsverfahren der Bodenfeuchte sind
hinreichend genau, aber recht kostspielig. Ein weiteres Problem mit in-situ Messungen im Feld ist die Tatsache, dass diese in der Regel Punktmessungen sind und nur eine kleine Maßstabsskala abdecken. Aufgrund der engen Verbindung zwischen Wasser und den
dielektrischen Eigenschaften des Bodens haben Mikrowellen-Fernerkundungsmethoden das Potenzial, die Grenzen der traditionellen Methoden zu überwinden, und darüber hinaus flächenhafte Messungen mit globaler Abdeckung und häufigeren Beobachtungen
anzubieten. Gleichbedeutend mit einer Verbesserung der Instrumente und Fernerkundungstechniken sind die geophysikalischen Methoden, die verwendet werden, um die Dynamik der Bodenfeuchte aus den gemessenen Mikrowellensignalen zu extrahieren.
Die Scatterometer an Bord der Europäischen Fernerkundungssatelliten ERS und MetOp haben sich als nützlich für die Überwachung der Bodenfeuchte erwiesen. Das Ziel dieser Dissertation war die Entwicklung eines verbesserten Algorithmus zur Ableitung von Bodenfeuchte, basierend auf der so genannten „TU-Wien Change Detection" Methode mit einer neuen Parametrierung und Fehleranalyse. Der neue Algorithmus, WARP5 („WAter Retrieval Package"), führt zu einem robusteren und räumlich einheitlicheren Bodenfeuchteprodukt mit einer höheren Auflösung als mit der früheren Methode (WARP4).
Eine Gegenüberstellung von WARP4 und WARP5 Datensätzen mit Feldbeobachtungen und mit modellierten Bodenfeuchtedaten zeigt, dass der neue Algorithmus über eine bessere Leistung verfügt und Fehler in bestimmten Bereichen wirksam korrigiert. Parallel zur Ableitung der Bodenfeuchte wurde eine umfassende Fehleranalyse durchgeführt. Diese Fehleranalyse besteht aus einer Kombination von analytischer Fehlerfortpflanzung und einer numerische Lösung auf Basis einer Monte-Carlo-Simulation. Das Verständnis von Fehlern und deren Abschätzung in jedem Verarbeitungsschritt der Methode stellt einen wertvollen Beitrag für die optimale Bestimmung der Bodenfeuchte und auch für wissenschaftliche Anwendungen, insbesondere für die Datenassimilation, dar.
Bodenfeuchte ist eine wichtige Variable im hydrologischen Zyklus. Die Verbindung zwischen Energie- und Wasserhaushalt ist durch den Feuchtigkeits- und Temperaturzustand des Bodens an der Bodenoberfläche und Atmosphäre gegeben. Die Entwicklung von Bodenfeuchtedaten ist wichtig für die numerische Wettervorhersage und Klima-Modellierung. Die Kenntnis über die Verteilung der Bodenfeuchte ist essentiell für die Vorhersage des gegenseitigen Einflusses von Prozessen an der Bodenoberfläche (wie z.B. Evaporation, Infiltration und Abfluss) auf Wetter und Klima. Aufgrund der hohen Variabilität der Bodenfeuchte in Raum und Zeit, ist eine gute Raum-Zeit-Darstellung der Bodenfeuchte recht anspruchsvoll. In-situ Beobachtungsverfahren der Bodenfeuchte sind
hinreichend genau, aber recht kostspielig. Ein weiteres Problem mit in-situ Messungen im Feld ist die Tatsache, dass diese in der Regel Punktmessungen sind und nur eine kleine Maßstabsskala abdecken. Aufgrund der engen Verbindung zwischen Wasser und den
dielektrischen Eigenschaften des Bodens haben Mikrowellen-Fernerkundungsmethoden das Potenzial, die Grenzen der traditionellen Methoden zu überwinden, und darüber hinaus flächenhafte Messungen mit globaler Abdeckung und häufigeren Beobachtungen
anzubieten. Gleichbedeutend mit einer Verbesserung der Instrumente und Fernerkundungstechniken sind die geophysikalischen Methoden, die verwendet werden, um die Dynamik der Bodenfeuchte aus den gemessenen Mikrowellensignalen zu extrahieren.
Die Scatterometer an Bord der Europäischen Fernerkundungssatelliten ERS und MetOp haben sich als nützlich für die Überwachung der Bodenfeuchte erwiesen. Das Ziel dieser Dissertation war die Entwicklung eines verbesserten Algorithmus zur Ableitung von Bodenfeuchte, basierend auf der so genannten „TU-Wien Change Detection" Methode mit einer neuen Parametrierung und Fehleranalyse. Der neue Algorithmus, WARP5 („WAter Retrieval Package"), führt zu einem robusteren und räumlich einheitlicheren Bodenfeuchteprodukt mit einer höheren Auflösung als mit der früheren Methode (WARP4).
Eine Gegenüberstellung von WARP4 und WARP5 Datensätzen mit Feldbeobachtungen und mit modellierten Bodenfeuchtedaten zeigt, dass der neue Algorithmus über eine bessere Leistung verfügt und Fehler in bestimmten Bereichen wirksam korrigiert. Parallel zur Ableitung der Bodenfeuchte wurde eine umfassende Fehleranalyse durchgeführt. Diese Fehleranalyse besteht aus einer Kombination von analytischer Fehlerfortpflanzung und einer numerische Lösung auf Basis einer Monte-Carlo-Simulation. Das Verständnis von Fehlern und deren Abschätzung in jedem Verarbeitungsschritt der Methode stellt einen wertvollen Beitrag für die optimale Bestimmung der Bodenfeuchte und auch für wissenschaftliche Anwendungen, insbesondere für die Datenassimilation, dar.
Surface soil moisture retrieval using Envisat ASAR global mode data
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2009
Begutachter: Univ.Prof. Dr. Wolfgang Wagner, Institut für Photogrammetrie und Fernerkundung; Prof. Dr. Volker Hochschild, Geographisches Institut der Universität Tübingen
Begutachter: Univ.Prof. Dr. Wolfgang Wagner, Institut für Photogrammetrie und Fernerkundung; Prof. Dr. Volker Hochschild, Geographisches Institut der Universität Tübingen
Kurzfassung/Abstract
Bodenfeuchte als wichtige Größe in den globalen Kreisläufen von Wasser, Energie und Kohlenstoff, ist räumlich und zeitlich hoch variabel. Sie kann mit Hilfe von in-situ Messungen sehr genau bestimmt werden. Der hierfür notwendige organisatorische und finanzielle Aufwand macht wiederholte Messungen auf kontinentaler oder globaler Ebene unmöglich. Als Alternative bieten sich hier Methoden der Radarfernerkundung an, die Daten auf unterschiedlichen zeitlichen und räumlichen Skalen liefern können. Der Zusammenhang zwischen empfangenen Radarsignalen und der Bodenfeuchte ist von verschiedenen Faktoren abhängig und kann mit Hilfe von Modellen abgeleitet werden. Aufgrund der Komplexität des Radarrückstreuvorgangs ist eine vollständige mathematisch-physikalische Beschreibung unrealistisch. Mit Hilfe sogenannter Change-Detection-Methoden wird versucht, diese Probleme zu umgehen, indem lediglich die Änderungen in der Radarrückstreuung über die Zeit ohne Beschreiung der absoluten Rückstreuung beobachtet wird.
Die vorliegende Arbeit basiert auf einem ursprünglich für ERS-Scatterometerdaten entwickelten Change-Detection-Modell. Dabei wird die Radarrückstreuung mit Hilfe empirischer Rückstreuparameter zur Ableitung relativer Bodenfeuchtewerte modelliert. Diese Rückstreuparameter beschreiben die Radarrückstreuung für den lageabhängigen Zeitpunkt mit trockene und gesättigte Bodenfeuchtebedingungen. Da im Fall des ERS drei unabhängige Messungen unter verschiedenen Einfallswinkeln zur Verfügung stehen, können saisonabhängige Effekte mit Hilfe des Einfallswinkelverhaltens beschrieben werden. Das invertierte Rückstreumodell kann dann benutzt werden, um einzelne Radarmessungen zwischen Trockenbedingungen (0%) und Feuchtbedingungen (100%) zu skalieren.
Im Fall des Envisat ASAR steht lediglich nur eine Radarrückstreumessungen bei einem Einfallswinkel zur Verfügung. Daher musste der ursprüngliche Bodenfeuchtealgorithmus angepasst werden. Die Datenanalyse hat gezeigt, dass saisonale Effekte weniger stark ausgeprägt sind. Außerdem wird eine für Vegetation weniger sensitive Polarisation verwendet. Daher wird zur Vereinfachung angenommen, angenommen, dass die Parameter des Rückstreumodells zeitlich konstant sind und saisonale Effekte durch Änderungen der Vegetation vernachlässigt werden können. Mit Hilfe des angepassten Rückstreumodells wurden Referenzwerte für trockene und gesättigte Bodenfeuchtebedingungen zur Skalierung von Radareinzelmessungen abgeleitet.
Die Ergebnisse wurden mit Hilfe von in-situ Bodenfeuchtemessungen des Oklahoma Mesonets und Bodenfeuchtewerten aus ERS Scatterometerdaten validiert. Gute Übereinstimmungen zwischen der relativen oberflächennahen Bodenfeuchte aus ASAR GM- Daten und den Validierungsdaten wurden beobachtet. Beim direkten Vergleich der Ergebnisse zeigt sich, das die Bodenfeuchte aus ERS-Scatterometerdaten etwas bessere Ergebnisse liefert als der ASAR GM Sensor. Als Hauptfehlerquelle wurde die radiometrische Genauigkeit von 1.2 dB identifiziert. Das ist ein im Vergleich zum ERS Scatterometer mit einer radiometrischen Genauigkeit von 0.3 dB relativ hoher Wert. Trotzdem können aus ASAR GM Daten Bodenfeuchtewerte mit wesentlich mehr räumlichen Details als für den ERS Scatterometer abgeleitet werden, die ebenso die zeitliche Dynamik der Bodenfeuchte abbilden wie im Fall des Scatterometers. Die Validierung hat gezeigt, dass die Vernachlässigung saisonaler Vegetationseffekte auf die Radarrückstreuung eine haltbare Vereinfachung darstellt und das ASAR GM Daten für ein operationelles Bodenfeuchtemonitoring mit Hilfe von Change-Detection-Modellen genutzt werden können.
Bodenfeuchte als wichtige Größe in den globalen Kreisläufen von Wasser, Energie und Kohlenstoff, ist räumlich und zeitlich hoch variabel. Sie kann mit Hilfe von in-situ Messungen sehr genau bestimmt werden. Der hierfür notwendige organisatorische und finanzielle Aufwand macht wiederholte Messungen auf kontinentaler oder globaler Ebene unmöglich. Als Alternative bieten sich hier Methoden der Radarfernerkundung an, die Daten auf unterschiedlichen zeitlichen und räumlichen Skalen liefern können. Der Zusammenhang zwischen empfangenen Radarsignalen und der Bodenfeuchte ist von verschiedenen Faktoren abhängig und kann mit Hilfe von Modellen abgeleitet werden. Aufgrund der Komplexität des Radarrückstreuvorgangs ist eine vollständige mathematisch-physikalische Beschreibung unrealistisch. Mit Hilfe sogenannter Change-Detection-Methoden wird versucht, diese Probleme zu umgehen, indem lediglich die Änderungen in der Radarrückstreuung über die Zeit ohne Beschreiung der absoluten Rückstreuung beobachtet wird.
Die vorliegende Arbeit basiert auf einem ursprünglich für ERS-Scatterometerdaten entwickelten Change-Detection-Modell. Dabei wird die Radarrückstreuung mit Hilfe empirischer Rückstreuparameter zur Ableitung relativer Bodenfeuchtewerte modelliert. Diese Rückstreuparameter beschreiben die Radarrückstreuung für den lageabhängigen Zeitpunkt mit trockene und gesättigte Bodenfeuchtebedingungen. Da im Fall des ERS drei unabhängige Messungen unter verschiedenen Einfallswinkeln zur Verfügung stehen, können saisonabhängige Effekte mit Hilfe des Einfallswinkelverhaltens beschrieben werden. Das invertierte Rückstreumodell kann dann benutzt werden, um einzelne Radarmessungen zwischen Trockenbedingungen (0%) und Feuchtbedingungen (100%) zu skalieren.
Im Fall des Envisat ASAR steht lediglich nur eine Radarrückstreumessungen bei einem Einfallswinkel zur Verfügung. Daher musste der ursprüngliche Bodenfeuchtealgorithmus angepasst werden. Die Datenanalyse hat gezeigt, dass saisonale Effekte weniger stark ausgeprägt sind. Außerdem wird eine für Vegetation weniger sensitive Polarisation verwendet. Daher wird zur Vereinfachung angenommen, angenommen, dass die Parameter des Rückstreumodells zeitlich konstant sind und saisonale Effekte durch Änderungen der Vegetation vernachlässigt werden können. Mit Hilfe des angepassten Rückstreumodells wurden Referenzwerte für trockene und gesättigte Bodenfeuchtebedingungen zur Skalierung von Radareinzelmessungen abgeleitet.
Die Ergebnisse wurden mit Hilfe von in-situ Bodenfeuchtemessungen des Oklahoma Mesonets und Bodenfeuchtewerten aus ERS Scatterometerdaten validiert. Gute Übereinstimmungen zwischen der relativen oberflächennahen Bodenfeuchte aus ASAR GM- Daten und den Validierungsdaten wurden beobachtet. Beim direkten Vergleich der Ergebnisse zeigt sich, das die Bodenfeuchte aus ERS-Scatterometerdaten etwas bessere Ergebnisse liefert als der ASAR GM Sensor. Als Hauptfehlerquelle wurde die radiometrische Genauigkeit von 1.2 dB identifiziert. Das ist ein im Vergleich zum ERS Scatterometer mit einer radiometrischen Genauigkeit von 0.3 dB relativ hoher Wert. Trotzdem können aus ASAR GM Daten Bodenfeuchtewerte mit wesentlich mehr räumlichen Details als für den ERS Scatterometer abgeleitet werden, die ebenso die zeitliche Dynamik der Bodenfeuchte abbilden wie im Fall des Scatterometers. Die Validierung hat gezeigt, dass die Vernachlässigung saisonaler Vegetationseffekte auf die Radarrückstreuung eine haltbare Vereinfachung darstellt und das ASAR GM Daten für ein operationelles Bodenfeuchtemonitoring mit Hilfe von Change-Detection-Modellen genutzt werden können.
Ontology-Driven Translation of Geospatial Data
Institut für Geoinformatik, Universität Münster, 2009
Begutachter: Univ.Prof. Dr. Werner Kuhn, Institut für Geoinformatik, Universität Münster o.Univ.-Prof. Dr. Andreas Frank, Institut für Geoinformation und Kartographie, Technische Universität Wien
Begutachter: Univ.Prof. Dr. Werner Kuhn, Institut für Geoinformatik, Universität Münster o.Univ.-Prof. Dr. Andreas Frank, Institut für Geoinformation und Kartographie, Technische Universität Wien
Kurzfassung/Abstract
Current methods for specifying data models lack well-defined descriptions of the expressions, which represent data types, attributes, attribute values, and operations. It is impossible to define clear translation rules for data models, because the relation between source and target data model elements is not computable. Furthermore, translation has to account for imprecision caused by conceptual heterogeneities and measurement error. In this thesis we use the DOLCE foundational ontology to provide a semantic reference frame for geospatial data. Available extensions to DOLCE are profiled and additional geospatial characteristics, such as topological relations are included. Annotating (or semantically referencing) expressions, which are used to define geospatial data models, with this frame supports computability and allows for selecting appropriate translation rules on the attribute level. Using alogic-based approach, sematically referenced data models allow for inferring relations between source and target attributes. This includes inference on applicable translation operations and the detection of match types fit the user's purpose, translation scripts are extracted. The scripts are executed using an algebraic theory, which includes propagation of measurement errors. The approach allows for specific data model semantics and imprecision. A demonstrator is provided as proof of concept. Our research is guided by an example of translating information about road width from a national data model (ATKIS road data model) to an international one (INSPIRE Data Specification for Transport Networks).
Current methods for specifying data models lack well-defined descriptions of the expressions, which represent data types, attributes, attribute values, and operations. It is impossible to define clear translation rules for data models, because the relation between source and target data model elements is not computable. Furthermore, translation has to account for imprecision caused by conceptual heterogeneities and measurement error. In this thesis we use the DOLCE foundational ontology to provide a semantic reference frame for geospatial data. Available extensions to DOLCE are profiled and additional geospatial characteristics, such as topological relations are included. Annotating (or semantically referencing) expressions, which are used to define geospatial data models, with this frame supports computability and allows for selecting appropriate translation rules on the attribute level. Using alogic-based approach, sematically referenced data models allow for inferring relations between source and target attributes. This includes inference on applicable translation operations and the detection of match types fit the user's purpose, translation scripts are extracted. The scripts are executed using an algebraic theory, which includes propagation of measurement errors. The approach allows for specific data model semantics and imprecision. A demonstrator is provided as proof of concept. Our research is guided by an example of translating information about road width from a national data model (ATKIS road data model) to an international one (INSPIRE Data Specification for Transport Networks).
Präzise GPS-Positionierung schnell bewegter Objekte mit Hilfe der Kalman Filterung
Institut für Geodäsie und Geophysik, Technische Universität Wien, 2009
1.Begutachter: Ao.Prof. Dipl.Ing. Dr.techn. Robert Weber
2.Begutachter: Prof. Dr.-Ing. Asim Bilajbegovic (Hochschule für Technik und Wirtschaft Dresden)
Betreuer: Ao.Prof. Dipl.Ing. Dr.techn. Robert Weber
1.Begutachter: Ao.Prof. Dipl.Ing. Dr.techn. Robert Weber
2.Begutachter: Prof. Dr.-Ing. Asim Bilajbegovic (Hochschule für Technik und Wirtschaft Dresden)
Betreuer: Ao.Prof. Dipl.Ing. Dr.techn. Robert Weber
Kurzfassung/Abstract
Um die Trajektorie eines bewegten Fahrzeuges unter Nutzung von GPS-Beobachtungen in Echtzeit zu bestimmen, bietet sich als Modellansatz die Kalman Filterung an. Der Kalman Filter wurde im Jahr 1960 von Prof. Rudolf Kalman entwickelt und spielt zunehmend eine Rolle in fast allen technischen Bereichen. Durch eine geeignete Steuerung der Gewichtung zwischen den einkommenden Messdaten und dem vom Algorithmus genutzten Bewegungsmodell kann sowohl eine Glättung der Trajektorie erreicht werden, als auch die Fahrzeugbewegung im Fall von Messdatenausfällen, z.B. wegen Signalabschattungen, prädiziert werden.
Im Rahmen dieser Arbeit wurde ein schon am Institut für Geodäsie und Geophysik existierendes C++ Programm zur Berechnung von GPS-Code-Positionen (4-dimensionaler Kugelschnitt) um das funktionale Modell der Kalman Filterung erweitert. Als Ein¬gabedaten können im Postprocessing-Fall die Codepseudoranges beziehungsweise Phasenbeobachtungen aus einer RINEX Beobachtungsdatei verarbeitet werden. Die Satellitenkoordinaten und der Satellitenuhrfehler werden aus präzisen Bahndaten (sp3-Datei) eingelesen und für die Beobachtungstermine interpoliert. Die Strecken¬beobachtungen werden vor der Filterung um die Signal-Verzögerung in der Troposphäre und der Ionosphäre (ionosphärenfreie Linearkombination) korrigiert. Mit diesen Eingangsdaten errechnet der Filter die Parameter Ort, Geschwindigkeit und Beschleunigung des bewegten Objektes als auch den Empfän¬geruhrfeh¬ler. Um die Genauigkeit der Positionierung zu steigern, können auch Differenzbeobachtungen relativ zu einer nahe gelegenen Referenzstation verarbeitet werden. Für die Prozessierung von Echtzeitdaten wurde eine Schnittstelle zur Eingabe von RTCM-Messages geschaffen.
Es konnte für ein mit ca. 50km/h bewegtes Fahrzeug im Differenzverfahren bei Vorliegen permanenter Messdaten (Code+Phase; 5Hz) zu zumindest 6 Satelliten eine sub-dm Genauigkeit der berechneten Trajektorie erreicht werden. Im Fall von Signalabschattungen ist die Abweichung der Prädiktion zur Solltrajektorie natürlich stark von der Dauer des Beobachtungsausfalls und von der Übereinstimmung der Trajektorie mit dem im Kalman Filter gewählten Bewegungsmodell abhängig.
Um die Trajektorie eines bewegten Fahrzeuges unter Nutzung von GPS-Beobachtungen in Echtzeit zu bestimmen, bietet sich als Modellansatz die Kalman Filterung an. Der Kalman Filter wurde im Jahr 1960 von Prof. Rudolf Kalman entwickelt und spielt zunehmend eine Rolle in fast allen technischen Bereichen. Durch eine geeignete Steuerung der Gewichtung zwischen den einkommenden Messdaten und dem vom Algorithmus genutzten Bewegungsmodell kann sowohl eine Glättung der Trajektorie erreicht werden, als auch die Fahrzeugbewegung im Fall von Messdatenausfällen, z.B. wegen Signalabschattungen, prädiziert werden.
Im Rahmen dieser Arbeit wurde ein schon am Institut für Geodäsie und Geophysik existierendes C++ Programm zur Berechnung von GPS-Code-Positionen (4-dimensionaler Kugelschnitt) um das funktionale Modell der Kalman Filterung erweitert. Als Ein¬gabedaten können im Postprocessing-Fall die Codepseudoranges beziehungsweise Phasenbeobachtungen aus einer RINEX Beobachtungsdatei verarbeitet werden. Die Satellitenkoordinaten und der Satellitenuhrfehler werden aus präzisen Bahndaten (sp3-Datei) eingelesen und für die Beobachtungstermine interpoliert. Die Strecken¬beobachtungen werden vor der Filterung um die Signal-Verzögerung in der Troposphäre und der Ionosphäre (ionosphärenfreie Linearkombination) korrigiert. Mit diesen Eingangsdaten errechnet der Filter die Parameter Ort, Geschwindigkeit und Beschleunigung des bewegten Objektes als auch den Empfän¬geruhrfeh¬ler. Um die Genauigkeit der Positionierung zu steigern, können auch Differenzbeobachtungen relativ zu einer nahe gelegenen Referenzstation verarbeitet werden. Für die Prozessierung von Echtzeitdaten wurde eine Schnittstelle zur Eingabe von RTCM-Messages geschaffen.
Es konnte für ein mit ca. 50km/h bewegtes Fahrzeug im Differenzverfahren bei Vorliegen permanenter Messdaten (Code+Phase; 5Hz) zu zumindest 6 Satelliten eine sub-dm Genauigkeit der berechneten Trajektorie erreicht werden. Im Fall von Signalabschattungen ist die Abweichung der Prädiktion zur Solltrajektorie natürlich stark von der Dauer des Beobachtungsausfalls und von der Übereinstimmung der Trajektorie mit dem im Kalman Filter gewählten Bewegungsmodell abhängig.
Mosaik von Kamerun Wolken- und Wolkenschattendetektion und Radiometrische Kalibrierung
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2009
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Kurzfassung/Abstract
Die Diplomarbeit befasst sich mit der Datenvorverarbeitung für ein Waldmonitoring-System, welches von der European Space Agency (ESA) im Rahmen des REDD - Programmes (Reducing Emissions from Deforestation and Degradation) in Auftrag gegeben wurde. Aufgabenstellung des Projektes ist die Erfassung sämtlicher abgeholzter und degradierter Waldgebiete Kameruns zwischen den Jahren 1990 und 2000 sowie 2000 und 2005. Als Datengrundlage stehen Landsat und Disaster Monitoring Constellation (DMC) Daten zur Verfügung. Die vorliegende Arbeit ist in zwei Arbeitsschritte gegliedert, die Detektion von Wolken und Wolkenschatten einerseits und die relative radiometrische Kalibrierung andererseits.
Für die Erstellung von Wolkenmasken wurde ein Spectral Separation Index (SSI) herangezogen, der als Inputparameter das grüne und nah infrarote Band einbezieht. Aufgrund der Tatsache, dass sich die Wolken, abgesehen von einigen besiedelten Flächen, sehr gut von der Landbedeckung Kameruns spektral trennen lassen, ist diese Methode zur Wolkendetektion ausreichend. Weit schwieriger ist es hingegen, Wolkenschatten spektral zu erkennen, da Gewässer und Hänge in Schattenlage ähnlich reflektieren.
Aus diesem Grund wurde eine Methode entwickelt, welche spektral und geometrisch abgeleitete Schattenmasken kombiniert. Erstere besteht aus einer leicht abgeänderten Version desselben SSI, der bereits zur Dektektion von Wolken verwendet wurde. Für letztere sind neben Sonnenstand und digitalem Geländemodell (DGM) die Wolkenhöhen notwendig, die aus einem Korrelationsverfahren mit der Geländehöhe approximiert wurden. Der große Vorteil dieses Ansatzes zur Detektion von Wolkenschatten ist, dass die Zahl der fälschlicherweise als Wolkenschatten detektierten Pixel stark vermindert wird. Basierend auf einen Datensatz mit ausmaskierten Wolken und Wolkenschatten wurden nun verschiedene Methoden zur radiometrischen Kalibrierung getestet, welche sich in drei Hauptgruppen (1) statistische Methoden, (2) Histogram Matching (HM) und (3) Regression untergliedern lassen. Eine Evaluierung der Ergebnisse aufgrund von Jeffries-Matusita (JM) Distanzen hat ergeben, dass für den verwendeten Datensatz HM und lineare Regression die besten Ergebnisse liefern.
Die Diplomarbeit befasst sich mit der Datenvorverarbeitung für ein Waldmonitoring-System, welches von der European Space Agency (ESA) im Rahmen des REDD - Programmes (Reducing Emissions from Deforestation and Degradation) in Auftrag gegeben wurde. Aufgabenstellung des Projektes ist die Erfassung sämtlicher abgeholzter und degradierter Waldgebiete Kameruns zwischen den Jahren 1990 und 2000 sowie 2000 und 2005. Als Datengrundlage stehen Landsat und Disaster Monitoring Constellation (DMC) Daten zur Verfügung. Die vorliegende Arbeit ist in zwei Arbeitsschritte gegliedert, die Detektion von Wolken und Wolkenschatten einerseits und die relative radiometrische Kalibrierung andererseits.
Für die Erstellung von Wolkenmasken wurde ein Spectral Separation Index (SSI) herangezogen, der als Inputparameter das grüne und nah infrarote Band einbezieht. Aufgrund der Tatsache, dass sich die Wolken, abgesehen von einigen besiedelten Flächen, sehr gut von der Landbedeckung Kameruns spektral trennen lassen, ist diese Methode zur Wolkendetektion ausreichend. Weit schwieriger ist es hingegen, Wolkenschatten spektral zu erkennen, da Gewässer und Hänge in Schattenlage ähnlich reflektieren.
Aus diesem Grund wurde eine Methode entwickelt, welche spektral und geometrisch abgeleitete Schattenmasken kombiniert. Erstere besteht aus einer leicht abgeänderten Version desselben SSI, der bereits zur Dektektion von Wolken verwendet wurde. Für letztere sind neben Sonnenstand und digitalem Geländemodell (DGM) die Wolkenhöhen notwendig, die aus einem Korrelationsverfahren mit der Geländehöhe approximiert wurden. Der große Vorteil dieses Ansatzes zur Detektion von Wolkenschatten ist, dass die Zahl der fälschlicherweise als Wolkenschatten detektierten Pixel stark vermindert wird. Basierend auf einen Datensatz mit ausmaskierten Wolken und Wolkenschatten wurden nun verschiedene Methoden zur radiometrischen Kalibrierung getestet, welche sich in drei Hauptgruppen (1) statistische Methoden, (2) Histogram Matching (HM) und (3) Regression untergliedern lassen. Eine Evaluierung der Ergebnisse aufgrund von Jeffries-Matusita (JM) Distanzen hat ergeben, dass für den verwendeten Datensatz HM und lineare Regression die besten Ergebnisse liefern.
Georeferenzierung des Franziszeischen Katasters im Rahmen des GIS-Steiermark
Institut für Geoinformation, Technische Universität Graz, 2009
Betreuer: Dr. Konrad Rautz
Betreuer: Dr. Konrad Rautz
Kurzfassung/Abstract
Diese Arbeit widmet sich der Erstellung eines Ablaufs für die Georeferenzierung des Franziszeischen Katasters. Nach der Durchführung dieser Schritte soll es möglich sein, den digital entzerrten Kataster in das geographische Informationssystem (GIS) des Landes Steiermark einzufügen. Zur Erstellung dieser Schritte dienen vier Testgebiete. Ziel ist es, anhand dieses Ablaufs sämtliche Teilblätter zu einer Gesamtkarte zusammenzufügen und anschließend in das Koordinatensystem UTM 33N zu transformieren. Dies macht es möglich reale Distanzen zu messen, so wie sie in der Natur vorliegen. Der Franziszeische Kataster wurde in den Jahren 1817 bis 1861 für die österreichisch-ungarische Monarchie aufgenommen und hatte das Ziel, eine gerechte Grundsteuerberechnung zu ermöglichen. Dieser Kataster beinhaltet ca. 8.600 Teilblätter für das Bundesland Steiermark und wurde bereits vom Steiermärkischen Landesarchiv digitalisiert.
Diese Arbeit widmet sich der Erstellung eines Ablaufs für die Georeferenzierung des Franziszeischen Katasters. Nach der Durchführung dieser Schritte soll es möglich sein, den digital entzerrten Kataster in das geographische Informationssystem (GIS) des Landes Steiermark einzufügen. Zur Erstellung dieser Schritte dienen vier Testgebiete. Ziel ist es, anhand dieses Ablaufs sämtliche Teilblätter zu einer Gesamtkarte zusammenzufügen und anschließend in das Koordinatensystem UTM 33N zu transformieren. Dies macht es möglich reale Distanzen zu messen, so wie sie in der Natur vorliegen. Der Franziszeische Kataster wurde in den Jahren 1817 bis 1861 für die österreichisch-ungarische Monarchie aufgenommen und hatte das Ziel, eine gerechte Grundsteuerberechnung zu ermöglichen. Dieser Kataster beinhaltet ca. 8.600 Teilblätter für das Bundesland Steiermark und wurde bereits vom Steiermärkischen Landesarchiv digitalisiert.
HOMER. Eine reale und virtuelle Schatzsuche
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2008
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Kurzfassung/Abstract
The project "HOMER - A Real and Virtual Treasure-Hunt" is designed as a children's game with GPS-Handhelds. The challenge is to combine a virtual game, which has to be played first, with the real treasure-hunt that takes place afterwards. This combination discloses a completely new way of geogames. The treasure-hunt is guided with a GPS-compliant handheld-pc.
Different methods of games and ways to the places where the games took place were tested. Among the methods of gaming were:
The game contains thirteen stations and descriptions to of the ways to them. Most of the methods mentioned above are included.
On May 30th, 2008 a test run was performed in the Lower-Austria town of Drosendorf. It was supported by the local association "MIMIKA" and funded by the provincial government of Lower Austria. 23 kids in four groups played the new game. After this test run a wide range of feedback was collected and evaluated, the different methods and the game itself were improved.
The thesis on which this work was based is: "It is possible to develop a treasure-hunt for kids from 8 to 12, which is technically realised with a PDA/handheld with GPS-function. It also transports knowledge on history and biology and is able to develop social skills."
Technically the game was realised with Siemens LOOX n520 handhelds, the game was coded in Microsoft Visual Basic.NET.
The project "HOMER - A Real and Virtual Treasure-Hunt" is designed as a children's game with GPS-Handhelds. The challenge is to combine a virtual game, which has to be played first, with the real treasure-hunt that takes place afterwards. This combination discloses a completely new way of geogames. The treasure-hunt is guided with a GPS-compliant handheld-pc.
Different methods of games and ways to the places where the games took place were tested. Among the methods of gaming were:
- Reaching of Points,
- Geocaching,
- Shutterspots,
- "1, 2 or 3" (based on the TV-show "Roundabout"),
- "Way through the Fire".
- arrow,
- map,
- picture,
- text,
- local information.
The game contains thirteen stations and descriptions to of the ways to them. Most of the methods mentioned above are included.
On May 30th, 2008 a test run was performed in the Lower-Austria town of Drosendorf. It was supported by the local association "MIMIKA" and funded by the provincial government of Lower Austria. 23 kids in four groups played the new game. After this test run a wide range of feedback was collected and evaluated, the different methods and the game itself were improved.
The thesis on which this work was based is: "It is possible to develop a treasure-hunt for kids from 8 to 12, which is technically realised with a PDA/handheld with GPS-function. It also transports knowledge on history and biology and is able to develop social skills."
Technically the game was realised with Siemens LOOX n520 handhelds, the game was coded in Microsoft Visual Basic.NET.
Userinterface für die Leitstelle eines Notrufsystems - Lagespezifisches Monitoring der mobilen Einheiten
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2009
Betreuer: Ao.Univ.-Prof. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dr. Manfred Wieser
Kurzfassung/Abstract
Diese Masterarbeit ist in das Projekt SOSguide (Safety Monitoring System and Remote Guidance) eingebunden. Im Zuge dieses Projekts wird ein mobiles Notrufsystem, das Elemente der Navigation enthält, entwickelt. Ziel der Masterarbeit ist die Erstellung der Benutzeroberfläche für die Desktoparbeitsplätze in der Einsatzzentrale des Roten Kreuzes. Auf der Oberfläche wird sowohl ein Überblick über alle eingegangenen Notrufe als auch Detailinformation zu den jeweils in Bearbeitung befindlichen Einsätzen gegeben. Alle Daten sind zentral auf einem Server verspeichert und der Zugriff auf diese erfolgt über eine Webschnittstelle. Damit ein Mitarbeiter in der Zentrale einen Einsatz koordinieren und situationsbezogen agieren kann, müssen alle relevanten Informationen auf dem Server abgefragt und auf der Oberfläche übersichtlich dargestellt werden. Um schnell geeignete Maßnahmen setzten zu können, sind Buttons mit unterschiedlichen Funktionalitäten vorgesehen. Ein Schwerpunkt stellt die Visualisierung der Positionen, Gehrichtungen und Adressen von Notrufenden und Helfern in einer digitalen Karte dar. Optional können berechnete Routen angezeigt werden. Für das Darstellen von Adressen in einer Karte bzw. für die Adressangabe der aktuellen GPS Position, müssen Adressen mit Koordinaten in Verbindung gebracht werden. Genauigkeitsabschätzungen der GPS Positionen sowie der zugeordneten Adressen sind ebenfalls Teil dieser Arbeit.
Diese Masterarbeit ist in das Projekt SOSguide (Safety Monitoring System and Remote Guidance) eingebunden. Im Zuge dieses Projekts wird ein mobiles Notrufsystem, das Elemente der Navigation enthält, entwickelt. Ziel der Masterarbeit ist die Erstellung der Benutzeroberfläche für die Desktoparbeitsplätze in der Einsatzzentrale des Roten Kreuzes. Auf der Oberfläche wird sowohl ein Überblick über alle eingegangenen Notrufe als auch Detailinformation zu den jeweils in Bearbeitung befindlichen Einsätzen gegeben. Alle Daten sind zentral auf einem Server verspeichert und der Zugriff auf diese erfolgt über eine Webschnittstelle. Damit ein Mitarbeiter in der Zentrale einen Einsatz koordinieren und situationsbezogen agieren kann, müssen alle relevanten Informationen auf dem Server abgefragt und auf der Oberfläche übersichtlich dargestellt werden. Um schnell geeignete Maßnahmen setzten zu können, sind Buttons mit unterschiedlichen Funktionalitäten vorgesehen. Ein Schwerpunkt stellt die Visualisierung der Positionen, Gehrichtungen und Adressen von Notrufenden und Helfern in einer digitalen Karte dar. Optional können berechnete Routen angezeigt werden. Für das Darstellen von Adressen in einer Karte bzw. für die Adressangabe der aktuellen GPS Position, müssen Adressen mit Koordinaten in Verbindung gebracht werden. Genauigkeitsabschätzungen der GPS Positionen sowie der zugeordneten Adressen sind ebenfalls Teil dieser Arbeit.
Bestimmung von Attitudeparametern im Zuge einer Sensorintegration bei geringer Kinematik
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2009
Betreuer: Ao.Univ.-Prof. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dr. Manfred Wieser
Kurzfassung/Abstract
Die Position und die Lage eines Objektes im Raum sind wichtige Informationen für viele Anwendungen. Diese Arbeit beschäftigt sich mit der Entwicklung eines Positionierungs- und Orientierungsmoduls. Die Positionierung und Lagebestimmung werden im Zuge einer
Sensorintegration im Hinblick auf Anwendungen mit geringer Kinematik behandelt. Eine Inertialmesseinheit (IMU) sowie ein GPS-Empfänger werden für die Realisierung herangezogen. Mittels Kalman-Filterung erfolgt die Sensorintegration des Magnetometers,
der Gyroskope und der Beschleunigungssensoren, die Teile der Inertialmesseinheit darstellen, um die Attitude zu bestimmen. Die GPS-Position wird in einem weiteren Kalman-Filter mit dem Barometer der IMU integriert. Es werden Probleme und Lösungsansätze, die im Zusammenhang mit den verwendeten Sensoren stehen, aufgezeigt.
Die Position und die Lage eines Objektes im Raum sind wichtige Informationen für viele Anwendungen. Diese Arbeit beschäftigt sich mit der Entwicklung eines Positionierungs- und Orientierungsmoduls. Die Positionierung und Lagebestimmung werden im Zuge einer
Sensorintegration im Hinblick auf Anwendungen mit geringer Kinematik behandelt. Eine Inertialmesseinheit (IMU) sowie ein GPS-Empfänger werden für die Realisierung herangezogen. Mittels Kalman-Filterung erfolgt die Sensorintegration des Magnetometers,
der Gyroskope und der Beschleunigungssensoren, die Teile der Inertialmesseinheit darstellen, um die Attitude zu bestimmen. Die GPS-Position wird in einem weiteren Kalman-Filter mit dem Barometer der IMU integriert. Es werden Probleme und Lösungsansätze, die im Zusammenhang mit den verwendeten Sensoren stehen, aufgezeigt.
Flächenangaben im österreichischen Kataster
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2008
Betreuer: Dr. Christoph Twaroch, Dr. Gerhard Navratil
Betreuer: Dr. Christoph Twaroch, Dr. Gerhard Navratil
Kurzfassung/Abstract
The Austrian cadastre provides the area of the individual land parcel. The aim of this thesis is to examine the accuracy of this data and to try to confirm the following hypothesis: "Providing the area of land parcels in whole square meters is not reasonable, because this accuracy cannot be guaranteed."
The first part of the thesis deals with the historical development of the Austrian cadastre and the current system of the Grundstücksdatenbank (database of parcels). The Grundstücksdatenbank still contains area-information which dates from the time when the cadastral surveying was carried out the first time (1817-1865). By analyzing historic procedures for the calculation of area and taking into account the respective margins of error which apply the hypothesis can be verified. Furthermore the currently used methods for the calculation of area are introduced and their dimension accuracy is assessed by applying the error of propagation law. It will again be argued that it is generally not possible to enhance the accuracy by measuring in whole square meters. The second part of the thesis discusses the judicial aspects of the area-information which the cadastral system contains. It illustrates the laws which are relevant for the calculation of area and deals with the relevant fields of law (hunting law, building law, forestry law, taxation law) and also discusses the judicature on area-information of the cadastre. The last part of the thesis is devoted to the economic relevance of the calculation of area for the user by looking at the assessment of the value of real estate (rateable value), taxation and agricultural subsidies. It has become apparent, that the area-information is primarily used to calculate economic parameters (for example: the value of a realty based on the customary price of a single square meter). this calculation is not only influenced by the error of the area, but also by other error containing factors. These factors often have more influence on the result than the error of the area-information. On that score the hypothesis can be extend as follows: "Providing the area of land parcels in whole square meters is not reasonable, because this accuracy cannot be guaranteed and is not required for the user."
The last chapter of the thesis discusses the results and outlines the advantages and disadvantages of area-information which is automatically generated by the digital cadastral map.
The Austrian cadastre provides the area of the individual land parcel. The aim of this thesis is to examine the accuracy of this data and to try to confirm the following hypothesis: "Providing the area of land parcels in whole square meters is not reasonable, because this accuracy cannot be guaranteed."
The first part of the thesis deals with the historical development of the Austrian cadastre and the current system of the Grundstücksdatenbank (database of parcels). The Grundstücksdatenbank still contains area-information which dates from the time when the cadastral surveying was carried out the first time (1817-1865). By analyzing historic procedures for the calculation of area and taking into account the respective margins of error which apply the hypothesis can be verified. Furthermore the currently used methods for the calculation of area are introduced and their dimension accuracy is assessed by applying the error of propagation law. It will again be argued that it is generally not possible to enhance the accuracy by measuring in whole square meters. The second part of the thesis discusses the judicial aspects of the area-information which the cadastral system contains. It illustrates the laws which are relevant for the calculation of area and deals with the relevant fields of law (hunting law, building law, forestry law, taxation law) and also discusses the judicature on area-information of the cadastre. The last part of the thesis is devoted to the economic relevance of the calculation of area for the user by looking at the assessment of the value of real estate (rateable value), taxation and agricultural subsidies. It has become apparent, that the area-information is primarily used to calculate economic parameters (for example: the value of a realty based on the customary price of a single square meter). this calculation is not only influenced by the error of the area, but also by other error containing factors. These factors often have more influence on the result than the error of the area-information. On that score the hypothesis can be extend as follows: "Providing the area of land parcels in whole square meters is not reasonable, because this accuracy cannot be guaranteed and is not required for the user."
The last chapter of the thesis discusses the results and outlines the advantages and disadvantages of area-information which is automatically generated by the digital cadastral map.
Detektion von Höhen-Bruchkanten in IKONOS Satellitenbildern durch Segmentierung
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2008
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Kurzfassung/Abstract
Die (halb-)automatische Detektion und Extraktion von Gebäuden aus Fernerkundungsbildern bildet die Grundlage für eine Vielzahl von Anwendungen. Das Spektrum der Anwendungen reicht von der Geodatenbeschaffung in großflächigen, urbanen Gebieten bis hin zur Überwachungen von nicht zugänglichen Gebieten im Bereich der öffentlichen Sicherheit. Eine wichtige Voraussetzung für die erfolgreiche Durchführung der Gebäudeextraktion ist ein detailliertes und genaues Digitales Oberflächenmodell (DSM). Die Qualität des DSM ist besonders dann kritisch, wenn auch eine dreidimensionale Modellierung der detektierten Gebäude durchgeführt werden soll. Eine Voraussetzung zur automatischen Erstellung des benötigten DSM ist das stereometrische Bildmatching. Aus hochauflösenden Satellitenbildern mittels Bildmatching gewonnene DSM erreichen jedoch nicht immer die gewünschte Qualität hinsichtlich der geometrischen Wiedergabe von Höhen-Bruchkanten von Gebäuden. Diese Arbeit untersucht einen Ansatz zur automatischen Detektion von Höhen-Bruchkanten durch Segmentierung von IKONOS Satellitenbildern. Das Hauptaugenmerk liegt dabei auf der Fähigkeit zum Erhalt von Intensitätskanten im Bild, die auf Höhen-Bruchkanten hinweisen könnten. Die detektierten Höhen-Bruchkanten sind zur weiteren Verwendung als Zusatzinformation in einem verbesserten Matching Prozess bestimmt, der sich am Institut für Digitale Bildverarbeitung von JOANNEUM RESEARCH in Entwicklung befindet. Für die Segmentierung wurden zwei bewährte Methoden benutzt, k-means clustering und lokales Region Growing. Da die mit diesen Methoden erzielten Ergebnisse Mängel beim Erhalt von Bruchkanten von Gebäuden aufwiesen, wurde im Rahmen dieser Arbeit ein Verfahren zur Segmentierung mit Kantenunterstützung entwickelt. Dieses basiert auf einem einfachen, lokalen Region Growing und berücksichtigt zudem Kanteninformation und Nebenbedingungen, wie Form und Größe der Regionen. Hauptinhalt dieser Arbeit ist die Beschreibung der Funktionsweise dieses Verfahrens. In einem an die Segmentierung anschließenden Prozess müssen die in der Segmentierung gewonnenen Regionen mit der Höheninformation des groben Raster-DSM aus dem Matching kombiniert werden, um die Höhen-Bruchkanten detektieren zu können. Ein Vorschlag für ein Verfahren zur Detektion der Höhen-Bruchkanten wird in dieser Arbeit ebenfalls präsentiert. Das Verfahren wurde in einem GIS umgesetzt und nutzt den relativen Höhenunterschied von benachbarten Regionen. Die Größe des relative Höhenunterschiedes bildet das Kriterium, ob eine Kante eine Höhen-Bruchkante darstellt oder nicht.
Die (halb-)automatische Detektion und Extraktion von Gebäuden aus Fernerkundungsbildern bildet die Grundlage für eine Vielzahl von Anwendungen. Das Spektrum der Anwendungen reicht von der Geodatenbeschaffung in großflächigen, urbanen Gebieten bis hin zur Überwachungen von nicht zugänglichen Gebieten im Bereich der öffentlichen Sicherheit. Eine wichtige Voraussetzung für die erfolgreiche Durchführung der Gebäudeextraktion ist ein detailliertes und genaues Digitales Oberflächenmodell (DSM). Die Qualität des DSM ist besonders dann kritisch, wenn auch eine dreidimensionale Modellierung der detektierten Gebäude durchgeführt werden soll. Eine Voraussetzung zur automatischen Erstellung des benötigten DSM ist das stereometrische Bildmatching. Aus hochauflösenden Satellitenbildern mittels Bildmatching gewonnene DSM erreichen jedoch nicht immer die gewünschte Qualität hinsichtlich der geometrischen Wiedergabe von Höhen-Bruchkanten von Gebäuden. Diese Arbeit untersucht einen Ansatz zur automatischen Detektion von Höhen-Bruchkanten durch Segmentierung von IKONOS Satellitenbildern. Das Hauptaugenmerk liegt dabei auf der Fähigkeit zum Erhalt von Intensitätskanten im Bild, die auf Höhen-Bruchkanten hinweisen könnten. Die detektierten Höhen-Bruchkanten sind zur weiteren Verwendung als Zusatzinformation in einem verbesserten Matching Prozess bestimmt, der sich am Institut für Digitale Bildverarbeitung von JOANNEUM RESEARCH in Entwicklung befindet. Für die Segmentierung wurden zwei bewährte Methoden benutzt, k-means clustering und lokales Region Growing. Da die mit diesen Methoden erzielten Ergebnisse Mängel beim Erhalt von Bruchkanten von Gebäuden aufwiesen, wurde im Rahmen dieser Arbeit ein Verfahren zur Segmentierung mit Kantenunterstützung entwickelt. Dieses basiert auf einem einfachen, lokalen Region Growing und berücksichtigt zudem Kanteninformation und Nebenbedingungen, wie Form und Größe der Regionen. Hauptinhalt dieser Arbeit ist die Beschreibung der Funktionsweise dieses Verfahrens. In einem an die Segmentierung anschließenden Prozess müssen die in der Segmentierung gewonnenen Regionen mit der Höheninformation des groben Raster-DSM aus dem Matching kombiniert werden, um die Höhen-Bruchkanten detektieren zu können. Ein Vorschlag für ein Verfahren zur Detektion der Höhen-Bruchkanten wird in dieser Arbeit ebenfalls präsentiert. Das Verfahren wurde in einem GIS umgesetzt und nutzt den relativen Höhenunterschied von benachbarten Regionen. Die Größe des relative Höhenunterschiedes bildet das Kriterium, ob eine Kante eine Höhen-Bruchkante darstellt oder nicht.
Data Quality in Navigation Systems - A new approach to define user groups
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2008
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Kurzfassung/Abstract
Das Ziel der Diplomarbeit ist die Entwicklung eines Schemas für die Datenqualität in Navigationssystemen. Die Hauptfrage dabei ist, welche Qualität von Daten ist für welche Benutzergruppe akzeptabel. Das führt zu einer Neukategorisierung von Benutzergruppen von Navigationssystemen in städtischen Straßensystemen. Wichtig ist die Erfassung und Kategorisierung der einzelnen Benutzeraufgaben und daraus resultierenden Anforderungen an Daten, System und Applikation. Ziel ist es, die Datenmengen zu reduzieren oder zu verrauschen. Dieser Prozess führt zu einer möglichen Differenzierung innerhalb der Benutzergruppen. Neue Benutzergruppen können durch qualitativ schlechtere aber finanziell günstigere Lösungen angesprochen werden. Somit kann gezeigt werden, dass eine Verschlechterung der Datenqualität positive Auswirkungen auf die Verbreitungsmöglichkeit von Geo Information Produkten haben kann, weil somit neue Benutzergruppen angesprochen werden können.
Das Ziel der Diplomarbeit ist die Entwicklung eines Schemas für die Datenqualität in Navigationssystemen. Die Hauptfrage dabei ist, welche Qualität von Daten ist für welche Benutzergruppe akzeptabel. Das führt zu einer Neukategorisierung von Benutzergruppen von Navigationssystemen in städtischen Straßensystemen. Wichtig ist die Erfassung und Kategorisierung der einzelnen Benutzeraufgaben und daraus resultierenden Anforderungen an Daten, System und Applikation. Ziel ist es, die Datenmengen zu reduzieren oder zu verrauschen. Dieser Prozess führt zu einer möglichen Differenzierung innerhalb der Benutzergruppen. Neue Benutzergruppen können durch qualitativ schlechtere aber finanziell günstigere Lösungen angesprochen werden. Somit kann gezeigt werden, dass eine Verschlechterung der Datenqualität positive Auswirkungen auf die Verbreitungsmöglichkeit von Geo Information Produkten haben kann, weil somit neue Benutzergruppen angesprochen werden können.
Userinterface für die mobile Einheit in einem Notrufsystem
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2009
Betreuer: Ao.Univ.-Prof. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dr. Manfred Wieser
Kurzfassung/Abstract
Diese Masterarbeit entsteht im Zuge des KIRAS Projektes SOSguide und beschäftigt sich mit der Entwicklung eines Konzepts für ein erweitertes Notrufsystem zur Ortung und Zielführung von Personen. KIRAS ist ein Österreichisches Förderungsprogramm für
Sicherheitsforschung. Im Rahmen dieser Arbeit soll die Benutzeroberfläche für die mobilen Geräte des Notrufsystems SOSguide entwickelt und implementiert werden. Diese sollen von Rettungshelfern als auch Privatpersonen genutzt werden können, um hilfesuchende Personen zu orten und um zu deren Aufenthaltsort geführt zu werden. Dabei ist sowohl die kartographische Darstellung der Position des Notrufenden als auch des Standortes des mobilen Gerätes wichtig. Weiters müssen alle wichtigen Informationen zum Notruf über das Helfergerät einsehbar sein. Auch diverse Möglichkeiten zum Informationsaustausch mit der Leitstelle des Rettungssystems müssen vorgesehen werden. Die aus dieser Arbeit hervorgebrachte Benutzeroberfläche soll den Anforderungen verschiedener Benutzergruppen genügen und daher auch für technisch nicht versierte Nutzer einfach in der Handhabung sein.
Diese Masterarbeit entsteht im Zuge des KIRAS Projektes SOSguide und beschäftigt sich mit der Entwicklung eines Konzepts für ein erweitertes Notrufsystem zur Ortung und Zielführung von Personen. KIRAS ist ein Österreichisches Förderungsprogramm für
Sicherheitsforschung. Im Rahmen dieser Arbeit soll die Benutzeroberfläche für die mobilen Geräte des Notrufsystems SOSguide entwickelt und implementiert werden. Diese sollen von Rettungshelfern als auch Privatpersonen genutzt werden können, um hilfesuchende Personen zu orten und um zu deren Aufenthaltsort geführt zu werden. Dabei ist sowohl die kartographische Darstellung der Position des Notrufenden als auch des Standortes des mobilen Gerätes wichtig. Weiters müssen alle wichtigen Informationen zum Notruf über das Helfergerät einsehbar sein. Auch diverse Möglichkeiten zum Informationsaustausch mit der Leitstelle des Rettungssystems müssen vorgesehen werden. Die aus dieser Arbeit hervorgebrachte Benutzeroberfläche soll den Anforderungen verschiedener Benutzergruppen genügen und daher auch für technisch nicht versierte Nutzer einfach in der Handhabung sein.
Automatisierte Führung, Analyse und Verwaltung von Transformationsparametersätzen zur Abbildung globaler ITRF-Koordinaten in das LandeskoordinatensystemAutomatisierte Führung, Analyse und Verwaltung von Transformationsparametersätzen zur Abbildung globale
Institut für Geodäsie und Geophysik, Technische Universität Wien, 2009
Begutachter: Ao.Prof. Dipl.Ing. Dr.techn. Robert Weber
Betreuer: Ao.Prof. Dipl.Ing. Dr.techn. Robert Weber
Begutachter: Ao.Prof. Dipl.Ing. Dr.techn. Robert Weber
Betreuer: Ao.Prof. Dipl.Ing. Dr.techn. Robert Weber
Kurzfassung/Abstract
In Österreich, wie auch in einigen anderen europäischen Ländern, wird gefordert geodätische Messungen im Bereich der Katastervermessung lokal auf das historisch gewachsene System der Landesvermessung zu beziehen (Nachbarschaftsgenauigkeit). Das Landeskoordinatensystem wurde allerdings mit aus heutiger Sicht unzureichenden Messmitteln aufgebaut und weist somit nun leicht nachweisbare Spannungen mit meist regional systematischer Natur auf. Im Gegensatz dazu werden Neupunktskoordinaten bei GNSS-Messungen weitgehend spannungsfrei in einem geozentrisch gelagerten, kartesischen Koordinatenrahmen (ITRF- oder ETRF-Koordinatenrahmen) bestimmt. Zur Transformation der so bestimmten Koordinaten eines lokalen Punkthaufens in das Datum der Landesvermessung wird vorrangig eine räumliche Ähnlichkeitstransformation (7-Parametertransformation, Helmert-Transformationen) verwendet. Soll eine regionale Anpassung der spannungsfreien Punktwolke an das Landeskoordinatensystem erfolgen, bei der die nach Transformation auftretenden Restklaffungen in Lage und Höhe eine gewisse Schranke unterschreiten, so sind für das gesamte Staatsgebiet eine größere Anzahl von für jeweils begrenzte Gebiete geltende Parametersätze vorzusehen. Bei einer veranschlagten Restklaffung von maximal 15 Zentimetern in der Lage sind z.B. über das gesamte Gebiet von Österreich mindestens fünfzig solcher Parametersätze nötig. Für die Höhenkoordinate ist unter Nutzung eines Geoidmodells diese Anzahl ebenfalls repräsentativ.
In der vorliegenden Arbeit wurde ein Verwaltungssystem für national im Gebrauch stehende Transformationsparametersätze erstellt. Die Software ist in der Lage, dem Nutzer abhängig von einer gegebenen Näherungskoordinate Auskunft sowohl über den für diesen Bereich gültigen Parametersatz zu geben, als auch Informationen über dessen Grenzen und die zu erwartenden systematischen Restspannungen zu liefern. Bei Wechsel des Parametersatzes können die neu auftretenden Restspannungen an den Bereichsgrenzen ausgewiesen werden. Zusätzlich ist ein automatisiertes Update der Parameter bei Wechsel des Referenzrahmens (z.B. ITRF2000 -> ETRF2000) und der Referenzrahmenepoche möglich.
In Österreich, wie auch in einigen anderen europäischen Ländern, wird gefordert geodätische Messungen im Bereich der Katastervermessung lokal auf das historisch gewachsene System der Landesvermessung zu beziehen (Nachbarschaftsgenauigkeit). Das Landeskoordinatensystem wurde allerdings mit aus heutiger Sicht unzureichenden Messmitteln aufgebaut und weist somit nun leicht nachweisbare Spannungen mit meist regional systematischer Natur auf. Im Gegensatz dazu werden Neupunktskoordinaten bei GNSS-Messungen weitgehend spannungsfrei in einem geozentrisch gelagerten, kartesischen Koordinatenrahmen (ITRF- oder ETRF-Koordinatenrahmen) bestimmt. Zur Transformation der so bestimmten Koordinaten eines lokalen Punkthaufens in das Datum der Landesvermessung wird vorrangig eine räumliche Ähnlichkeitstransformation (7-Parametertransformation, Helmert-Transformationen) verwendet. Soll eine regionale Anpassung der spannungsfreien Punktwolke an das Landeskoordinatensystem erfolgen, bei der die nach Transformation auftretenden Restklaffungen in Lage und Höhe eine gewisse Schranke unterschreiten, so sind für das gesamte Staatsgebiet eine größere Anzahl von für jeweils begrenzte Gebiete geltende Parametersätze vorzusehen. Bei einer veranschlagten Restklaffung von maximal 15 Zentimetern in der Lage sind z.B. über das gesamte Gebiet von Österreich mindestens fünfzig solcher Parametersätze nötig. Für die Höhenkoordinate ist unter Nutzung eines Geoidmodells diese Anzahl ebenfalls repräsentativ.
In der vorliegenden Arbeit wurde ein Verwaltungssystem für national im Gebrauch stehende Transformationsparametersätze erstellt. Die Software ist in der Lage, dem Nutzer abhängig von einer gegebenen Näherungskoordinate Auskunft sowohl über den für diesen Bereich gültigen Parametersatz zu geben, als auch Informationen über dessen Grenzen und die zu erwartenden systematischen Restspannungen zu liefern. Bei Wechsel des Parametersatzes können die neu auftretenden Restspannungen an den Bereichsgrenzen ausgewiesen werden. Zusätzlich ist ein automatisiertes Update der Parameter bei Wechsel des Referenzrahmens (z.B. ITRF2000 -> ETRF2000) und der Referenzrahmenepoche möglich.
Integration of a hydraulic sub-model in the riparian vegetation model
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2009
Betreuer: Dr. Gregory Egger (Umweltbüro Klagenfurt), Dipl.-Ing. Emanuel Pirker (FH-Kärnten), Dr. Gernot Paulus (FH-Kärnten)
Betreuer: Dr. Gregory Egger (Umweltbüro Klagenfurt), Dipl.-Ing. Emanuel Pirker (FH-Kärnten), Dr. Gernot Paulus (FH-Kärnten)
Kurzfassung/Abstract
Today Geographic Information Systems and Spatial Decision Support Systems have a strategic role in environmental management and science. As a consequence, several models and related sub-models regarding a scientific discipline can be developed in a geographical information system as a spatial decision support system. The first starting point of this Master Thesis work was an integration of a riparian vegetation model developed during the Master Project with a hydraulic sub-model which could not be managed directly in the ArcGIS environment as the vegetation one.
For these reasons in this work it has been researched the possibility to develop an unique automated graphical interface with specific tools and functionalities to organize and automate all the data flow provided by the different sub-models. Thus it will not be necessary to insert manually the different data derived from each sub-model. The complete control of the data flow cycles is essential to reach a feasible solution made up by a set of scenarios in the field of the spatial decision support systems without waste of time and resources.
At this point the major task has become to design and test an Automated module software interface between the hydraulic sub-model and the riparian vegetation model. Part of the initial work was done in cooperation with the Master Degree student Emilio Politti.
The goal of this thesis work is to find the possibility to manage directly through an automated interface developed within the ArcGIS environment the input data represented by a two Dimensional Mesh Data file specific for hydraulic sub-model processing core (HYDRO_AS-2D). Therefore it will be no longer required to plug the data manually from ArcGIS into the HYDRO_AS-2D module and the opposite but they will be managed through the above cited dynamic Automated interface.
Today Geographic Information Systems and Spatial Decision Support Systems have a strategic role in environmental management and science. As a consequence, several models and related sub-models regarding a scientific discipline can be developed in a geographical information system as a spatial decision support system. The first starting point of this Master Thesis work was an integration of a riparian vegetation model developed during the Master Project with a hydraulic sub-model which could not be managed directly in the ArcGIS environment as the vegetation one.
For these reasons in this work it has been researched the possibility to develop an unique automated graphical interface with specific tools and functionalities to organize and automate all the data flow provided by the different sub-models. Thus it will not be necessary to insert manually the different data derived from each sub-model. The complete control of the data flow cycles is essential to reach a feasible solution made up by a set of scenarios in the field of the spatial decision support systems without waste of time and resources.
At this point the major task has become to design and test an Automated module software interface between the hydraulic sub-model and the riparian vegetation model. Part of the initial work was done in cooperation with the Master Degree student Emilio Politti.
The goal of this thesis work is to find the possibility to manage directly through an automated interface developed within the ArcGIS environment the input data represented by a two Dimensional Mesh Data file specific for hydraulic sub-model processing core (HYDRO_AS-2D). Therefore it will be no longer required to plug the data manually from ArcGIS into the HYDRO_AS-2D module and the opposite but they will be managed through the above cited dynamic Automated interface.
Low-cost Headingbestimmung in der Binnenschifffahrt
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2008
Betreuer: Univ.-Prof. Dr. Bernhard Hofmann-Wellenhof
Betreuer: Univ.-Prof. Dr. Bernhard Hofmann-Wellenhof
Kurzfassung/Abstract
Die Bestimmung des Steuerkurses eines Schiffes, das sogenannte Heading, zählt zu den essentiellen Aufgaben in der Hochsee- und Binnenschifffahrt. Während der Navigationsmarkt für die Hochseeschifffahrt hochwertige Systeme zur Bestimmung des Headings anbietet, werden diese aufgrund ihrer hohen Anschaffungskosten in der Inlandschifffahrt nur bedingt eingesetzt. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines low-cost Headingsystems, dessen verwendeten Bauteile sich durch geringe Anschaffungskosten auszeichnen. Dadurch soll der Binnenschifffahrt ein preiswertes System zur Verfügung gestellt werden, das den Anforderungen hochwertiger Headingsysteme gerecht wird und die Sicherheit im Schiffsverkehr erhöht. Die kontinuierliche Headingbestimmung wird durch die Fusion von GPS- und Drehratenmessungen sichergestellt. Der erste Teil der Arbeit befasst sich mit den theoretischen Grundlagen, auf welche die Entwicklung des Headingsystems basiert. Eine Marktanalyse im zweiten Teil soll die gegenwärtige Technologie der am Navigationsmarkt angebotenen Systeme aufzeigen. Die Hard- und Softwareentwicklung des Headingsystems wird im dritten und vierten Teil der Arbeit behandelt, wobei auf die entwickelten Softwarealgorithmen detaillierter eingegangen wird. Im letzten Teil zeigen Analysen und Ergebnisse ausgewählter Systemtests die Einsetzbarkeit des entwickelten Systems im Bereich der Binnenschifffahrt.
Die Bestimmung des Steuerkurses eines Schiffes, das sogenannte Heading, zählt zu den essentiellen Aufgaben in der Hochsee- und Binnenschifffahrt. Während der Navigationsmarkt für die Hochseeschifffahrt hochwertige Systeme zur Bestimmung des Headings anbietet, werden diese aufgrund ihrer hohen Anschaffungskosten in der Inlandschifffahrt nur bedingt eingesetzt. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines low-cost Headingsystems, dessen verwendeten Bauteile sich durch geringe Anschaffungskosten auszeichnen. Dadurch soll der Binnenschifffahrt ein preiswertes System zur Verfügung gestellt werden, das den Anforderungen hochwertiger Headingsysteme gerecht wird und die Sicherheit im Schiffsverkehr erhöht. Die kontinuierliche Headingbestimmung wird durch die Fusion von GPS- und Drehratenmessungen sichergestellt. Der erste Teil der Arbeit befasst sich mit den theoretischen Grundlagen, auf welche die Entwicklung des Headingsystems basiert. Eine Marktanalyse im zweiten Teil soll die gegenwärtige Technologie der am Navigationsmarkt angebotenen Systeme aufzeigen. Die Hard- und Softwareentwicklung des Headingsystems wird im dritten und vierten Teil der Arbeit behandelt, wobei auf die entwickelten Softwarealgorithmen detaillierter eingegangen wird. Im letzten Teil zeigen Analysen und Ergebnisse ausgewählter Systemtests die Einsetzbarkeit des entwickelten Systems im Bereich der Binnenschifffahrt.
Österreichischer Kataster und Grundbuch - Ein Exportprodukt Case Study Russland
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2008
Betreuer: Dr. Gerhard Navratil
Betreuer: Dr. Gerhard Navratil
Kurzfassung/Abstract
Grund und Boden sind eine wesentliche Grundlage allen Lebens auf dieser Erde. Jeder Mensch steht in irgendeinem realen Bezug dazu, sei es als Eigentümer, direkter oder indirekter Nutznießer. Da Grund und Boden einerseits unvermehrbar, andererseits die Grundlage der Agrarproduktion, des Einkommens, des Wohnens und der Erholung, also der Existenz einer jeden Gesellschaft ist, bestimmt der Umfang des kontrollierten Landes und die Art der Verteilung der Rechte an Grund und Boden die gesellschaftlichen Verhältnisse. Rechte am Boden bringen Arbeit und Einkommen, Ansehen und Einfluss.
Nun ist es in den meisten Rechtssystemen so, dass die Nutzung dieses lebensnotwendigen Gutes über das Rechtsinstitut des Eigentums geregelt ist. Grund und Boden erhält seinen Wert erst durch seine Nutzungsmöglichkeiten. Das heißt aus der Bodennutzung sind Erträge zu erwirtschaften. Nutzland ist kein ubiquitäres, sondern ein knappes Gut. Nach der Art seiner Nutzung, z.B. landwirtschaftlicher Nutzfläche oder Wohnbaugebiet, dem zulässigen Maß der Nutzung, z.B. zulässige Geschosszahl, und der Lage der Nutzfläche, z.B. City oder Außenbezirk, variieren Angebot und Nachfrage nach den Grundstücken. Das heißt, aus Lage und Nutzungsmöglichkeiten von Grundstücken ergeben sich unterschiedliche Knappheiten der Nutzflächen und unterschiedliche potenziell erwirtschaftbare Erträge. Daraus ergeben sich schließlich die verschiedenen Bodenpreise, auf deren Grundlage der Handel mit Immobilien betrieben werden kann.
Um so einen fairen und transparenten Handel zu ermöglichen benötigt man allerdings allgemein gültige rechtliche Rahmenbedingungen. Ein Landadministrationssystem hat die Aufgabe diese Rahmenbedingungen zu schaffen. Die Hauptelemente eines solchen Systems sind
I. das Grundstückseigentum, das mit Hilfe des Grundbuchs geregelt wird,
II. die Landnutzung, die durch die Raumplanung und im speziellen durch den Kataster geregelt wird und
III. den Bodenwert
Damit dieses System effizient funktioniert und alle Erfordernisse erfüllt, haben die UN-ECE und die FIG Richtlinien erarbeitet, die zur Evaluierung der nationalen Landadministrationssysteme dienen. Im Rahmen der Arbeit soll überprüft werden, ob das österreichische Konzept eines Landadministrationssystems, das seit beinahe 200 Jahren existiert, alle diese Richtlinien erfüllt und exportfähig ist. Im Rahmen dieser Evaluierung wird näher auf die geschichtliche Entwicklung des österreichischen Katastersystems und die Funktionsweise von Kataster und Grundbuch, sowie auf die Grundsteuer näher eingegangen.
Im Anschluss wird am Beispiel Russlands die Implementierung eines Landadministrationssystems nach österreichischem Vorbild erläutert, das im Rahmen des TACIS Projekts im Auftrag der Europäischen Union durchgeführt wurde. Russland ist mit einer Fläche von 17.075.400 km² der größte Staat der Welt und ist etwa so groß wie beiden Kontinente zusammen (Australien und Europa). Die Fläche bedeckt zirka ⅛ der Landfläche der Erde und ist mit einer Einwohnerzahl von 146,8 Millionen das bevölkerungsreichste Land Europas. Zu Zeiten der Sowjetunion wurde Privateigentum komplett abgeschafft und erst nach dem Fall des Kommunismus wieder eingeführt. Die russische Bevölkerung hat über 80 Jahre in einem vollkommen anderen sozial- und wirtschaftspolitischen System gelebt, in dem es den Begriff Eigentum in dieser Bedeutung nicht gegeben hat. Eine der schwierigsten Aufgaben im Zusammenhang mit der Einführung eines geordneten Immobilienmarktes war es, die Entscheidungsträger von der Zweckmäßigkeit dieses Systems zu überzeugen. Im Laufe der letzten 10 Jahre wurden unter wesentlichem Mitwirken österreichischer Experten die rechtlichen Grundlagen für ein Landadministrationssystem geschaffen, ohne die ein marktwirtschaftlich orientierter Immobilienmarkt nicht funktionieren könnte. Die gegenständliche Arbeit befasst sich mit der Art der Umsetzung dieser Gesetze und den Konsequenzen daraus, und den Problemen, die dabei aufgetreten sind und vergleicht das österreichische System mit dem russischen System anhand einiger Beispiele.
Grund und Boden sind eine wesentliche Grundlage allen Lebens auf dieser Erde. Jeder Mensch steht in irgendeinem realen Bezug dazu, sei es als Eigentümer, direkter oder indirekter Nutznießer. Da Grund und Boden einerseits unvermehrbar, andererseits die Grundlage der Agrarproduktion, des Einkommens, des Wohnens und der Erholung, also der Existenz einer jeden Gesellschaft ist, bestimmt der Umfang des kontrollierten Landes und die Art der Verteilung der Rechte an Grund und Boden die gesellschaftlichen Verhältnisse. Rechte am Boden bringen Arbeit und Einkommen, Ansehen und Einfluss.
Nun ist es in den meisten Rechtssystemen so, dass die Nutzung dieses lebensnotwendigen Gutes über das Rechtsinstitut des Eigentums geregelt ist. Grund und Boden erhält seinen Wert erst durch seine Nutzungsmöglichkeiten. Das heißt aus der Bodennutzung sind Erträge zu erwirtschaften. Nutzland ist kein ubiquitäres, sondern ein knappes Gut. Nach der Art seiner Nutzung, z.B. landwirtschaftlicher Nutzfläche oder Wohnbaugebiet, dem zulässigen Maß der Nutzung, z.B. zulässige Geschosszahl, und der Lage der Nutzfläche, z.B. City oder Außenbezirk, variieren Angebot und Nachfrage nach den Grundstücken. Das heißt, aus Lage und Nutzungsmöglichkeiten von Grundstücken ergeben sich unterschiedliche Knappheiten der Nutzflächen und unterschiedliche potenziell erwirtschaftbare Erträge. Daraus ergeben sich schließlich die verschiedenen Bodenpreise, auf deren Grundlage der Handel mit Immobilien betrieben werden kann.
Um so einen fairen und transparenten Handel zu ermöglichen benötigt man allerdings allgemein gültige rechtliche Rahmenbedingungen. Ein Landadministrationssystem hat die Aufgabe diese Rahmenbedingungen zu schaffen. Die Hauptelemente eines solchen Systems sind
I. das Grundstückseigentum, das mit Hilfe des Grundbuchs geregelt wird,
II. die Landnutzung, die durch die Raumplanung und im speziellen durch den Kataster geregelt wird und
III. den Bodenwert
Damit dieses System effizient funktioniert und alle Erfordernisse erfüllt, haben die UN-ECE und die FIG Richtlinien erarbeitet, die zur Evaluierung der nationalen Landadministrationssysteme dienen. Im Rahmen der Arbeit soll überprüft werden, ob das österreichische Konzept eines Landadministrationssystems, das seit beinahe 200 Jahren existiert, alle diese Richtlinien erfüllt und exportfähig ist. Im Rahmen dieser Evaluierung wird näher auf die geschichtliche Entwicklung des österreichischen Katastersystems und die Funktionsweise von Kataster und Grundbuch, sowie auf die Grundsteuer näher eingegangen.
Im Anschluss wird am Beispiel Russlands die Implementierung eines Landadministrationssystems nach österreichischem Vorbild erläutert, das im Rahmen des TACIS Projekts im Auftrag der Europäischen Union durchgeführt wurde. Russland ist mit einer Fläche von 17.075.400 km² der größte Staat der Welt und ist etwa so groß wie beiden Kontinente zusammen (Australien und Europa). Die Fläche bedeckt zirka ⅛ der Landfläche der Erde und ist mit einer Einwohnerzahl von 146,8 Millionen das bevölkerungsreichste Land Europas. Zu Zeiten der Sowjetunion wurde Privateigentum komplett abgeschafft und erst nach dem Fall des Kommunismus wieder eingeführt. Die russische Bevölkerung hat über 80 Jahre in einem vollkommen anderen sozial- und wirtschaftspolitischen System gelebt, in dem es den Begriff Eigentum in dieser Bedeutung nicht gegeben hat. Eine der schwierigsten Aufgaben im Zusammenhang mit der Einführung eines geordneten Immobilienmarktes war es, die Entscheidungsträger von der Zweckmäßigkeit dieses Systems zu überzeugen. Im Laufe der letzten 10 Jahre wurden unter wesentlichem Mitwirken österreichischer Experten die rechtlichen Grundlagen für ein Landadministrationssystem geschaffen, ohne die ein marktwirtschaftlich orientierter Immobilienmarkt nicht funktionieren könnte. Die gegenständliche Arbeit befasst sich mit der Art der Umsetzung dieser Gesetze und den Konsequenzen daraus, und den Problemen, die dabei aufgetreten sind und vergleicht das österreichische System mit dem russischen System anhand einiger Beispiele.
Verwendung von Versionsmanagement - Werkzeuge für sicheres kooperatives Arbeiten mit CAD-Plänen
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2008
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Kurzfassung/Abstract
File based cooperative effort does not only pose a challenge in engineer's offices. Applying changes to various local files and committing these changes to a central repository leads to conflicting situations, where decisions have to be made, which changes should represent the final valid state.
It is assumed that version control systems (VCS) can help solving the described problem above. It will be examined, if there is a viable way to support decisions efficiently and solve those conflicting situations.
On the basis of a simple open source tool (OooSVN) it will be demonstrated, which possibilities for conflict resolution exist and which principles are applied. A comparison of version control systems like SVN, CVS, and DARCS, GIT, which are based on different underlying philosophies, leads up to a more intensive analysis of the version control system DARCS. The patch theory behind DARCS will be explained and it will be investigated, if it can solve the problems above.
The applicability of conflict resolution in management of technical data representing technical drawings will be regarded and how users can be supported in that aspect. The remarks lead to the development of a plug-in, which supports the cooperative editing of technical drawings.
File based cooperative effort does not only pose a challenge in engineer's offices. Applying changes to various local files and committing these changes to a central repository leads to conflicting situations, where decisions have to be made, which changes should represent the final valid state.
It is assumed that version control systems (VCS) can help solving the described problem above. It will be examined, if there is a viable way to support decisions efficiently and solve those conflicting situations.
On the basis of a simple open source tool (OooSVN) it will be demonstrated, which possibilities for conflict resolution exist and which principles are applied. A comparison of version control systems like SVN, CVS, and DARCS, GIT, which are based on different underlying philosophies, leads up to a more intensive analysis of the version control system DARCS. The patch theory behind DARCS will be explained and it will be investigated, if it can solve the problems above.
The applicability of conflict resolution in management of technical data representing technical drawings will be regarded and how users can be supported in that aspect. The remarks lead to the development of a plug-in, which supports the cooperative editing of technical drawings.
Entwicklung einer Web-GIS Applikation mit GIS-Funktionalitäten am Beispiel eines Gasleitungsnetzes
Institut für Geoinformation, Technische Universität Graz, 2008
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Die Anzahl der Karten im Internet nimmt explosionsartig zu. Webkarten scheinen konventionelle Karten zu verdrängen. Die vorliegende Masterarbeit befasst sich mit der Entwicklung einer Web-GIS Applikation eines Netzinformationssystems (NIS) von
Gasleitungen. Die Aufgabe eines NIS ist die Dokumentation und Bearbeitung von Betriebsmitteldaten. Dazu gehören Kundendaten, Informationen zu den Leitungen und den Anlagen. Im ersten Teil der Masterarbeit wird der Aufbau von kartographischen und
geographischen Informationssystemen erläutert. Bei der Client-Server-Architektur wird vom Client über das Internet eine Anfrage zum Geodatenserver geschickt. Der Server liefert dann die angeforderten Daten zum Client zurück. Zum leichteren Austausch von Geodaten definiert ISO 19132 GI-Services. Mithilfe dieser offenen Standards wie z.B. WMS und WFS können unterschiedliche Systeme miteinander kommunizieren. Bei der Analyse von raumbezogenen Daten spielt besonders die dritte Dimension eine wichtige Rolle. Ein Netzinformationssystem wird dadurch zum 3D-NIS. Im zweiten Teil der Arbeit wird die Erstellung einer Web-Applikation beschrieben. Die Web-GIS-Lösung stellt neben der Visualisierung auch einige spezielle Funktionen eines Gasleitungsnetzes bereit. Dazu zählen u.a. eine "Gazetteer"-Funktion auf WFS Basis, eine Risikoermittlung aufgrund der "Potential Impact Radius"-Berechnung, eine Verbrauchsanalyse und eine Netzverfolgung. Schließlich wird eine dreidimensionale Visualisierung in Google Earth diskutiert.
Die Anzahl der Karten im Internet nimmt explosionsartig zu. Webkarten scheinen konventionelle Karten zu verdrängen. Die vorliegende Masterarbeit befasst sich mit der Entwicklung einer Web-GIS Applikation eines Netzinformationssystems (NIS) von
Gasleitungen. Die Aufgabe eines NIS ist die Dokumentation und Bearbeitung von Betriebsmitteldaten. Dazu gehören Kundendaten, Informationen zu den Leitungen und den Anlagen. Im ersten Teil der Masterarbeit wird der Aufbau von kartographischen und
geographischen Informationssystemen erläutert. Bei der Client-Server-Architektur wird vom Client über das Internet eine Anfrage zum Geodatenserver geschickt. Der Server liefert dann die angeforderten Daten zum Client zurück. Zum leichteren Austausch von Geodaten definiert ISO 19132 GI-Services. Mithilfe dieser offenen Standards wie z.B. WMS und WFS können unterschiedliche Systeme miteinander kommunizieren. Bei der Analyse von raumbezogenen Daten spielt besonders die dritte Dimension eine wichtige Rolle. Ein Netzinformationssystem wird dadurch zum 3D-NIS. Im zweiten Teil der Arbeit wird die Erstellung einer Web-Applikation beschrieben. Die Web-GIS-Lösung stellt neben der Visualisierung auch einige spezielle Funktionen eines Gasleitungsnetzes bereit. Dazu zählen u.a. eine "Gazetteer"-Funktion auf WFS Basis, eine Risikoermittlung aufgrund der "Potential Impact Radius"-Berechnung, eine Verbrauchsanalyse und eine Netzverfolgung. Schließlich wird eine dreidimensionale Visualisierung in Google Earth diskutiert.
Analysen zur Qualitätsverbesserung von Einfrequenz Trägerphasen-Messungen
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2009
Betreuer: Ao.Univ.-Prof. Dr. Norbert Kühtreiber
Betreuer: Ao.Univ.-Prof. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Diese Arbeit beschäftigt sich mit der präzisen Flugbahn- und Geschwindigkeitsbestimmung im Skisprungsport auf Basis von Einfrequenz GPS-Trägerphasen-Messungen. Das Wissen über Flugbahn und Geschwindigkeit des Skispringers ermöglicht maßgebliche Verbesserungen für die Sprunganalyse der Trainer. Um die für die Athleten wichtigen Parameter, wie Anlaufgeschwindigkeit, Absprunggeschwindigkeit, Luftauftrieb und Luftwiderstand bestimmen zu können, müssen die ersten 40 m der Sprungtrajektorie mit einer Genauigkeit von wenigen Zentimetern und die Geschwindigkeit mit einer Genauigkeit von mindestens 0.5 km/h vorliegen. Aufgrund der Tatsache, dass Skisprungschanzen aufgrund der besseren Schneesituation auf Nordhängen liegen und diese für besseren Windschutz von Wald umgeben sind, kommt es zu vermehrten Abschattungen der Satellitensignale. Zudem ist die hohe Kinematik im Skisprungsport und das geringe Gewicht, das die GPS-Ausrüstung aufweisen darf, ein nicht zu vernachlässigender Faktor. Die Herausforderung dieser Diplomarbeit besteht darin, die Auswertung der Trajektorienpunkte so zu verbessern, dass die geforderte Positionsgenauigkeit erreicht werden kann. Dies erfordert die Verwendung eines Initialisierungspunktes, dessen bekannte Koordinaten genützt werden um die Ambiguitäten ganzzahlig zu fixieren. Weiters wird ein Algorithmus zur Detektion bzw. Korrektur von Datenlücken, Cycle Slips und Daten unzureichender Qualität in den rohen Trägerphasen-Messungen konzipiert und erstellt. Sind die Rohdaten korrigiert, wird die Skisprung-Trajektorie mit der kommerziellen Auswertesoftware GrafNav berechnet. Die Ergebnisse zeigen, dass die Interpolation der Datenlücken, die Elimination der Cycle Slips und die Korrektur der Daten geringer Qualität eine Qualitätsverbesserung der ausgewerteten Skisprung-Trajektorie ermöglicht. Dabei wird vorausgesetzt, dass Signale von mindestens vier Satelliten aufgezeichnet worden sind und ein Initialisierungspunkt verwendet wird. Außerdem werden die Probleme, die bei der Qualitätsverbesserung der rohen Trägerphasen-Messungen auftreten können, behandelt und mögliche Verbesserungsansätze dazu aufgezeigt.
Diese Arbeit beschäftigt sich mit der präzisen Flugbahn- und Geschwindigkeitsbestimmung im Skisprungsport auf Basis von Einfrequenz GPS-Trägerphasen-Messungen. Das Wissen über Flugbahn und Geschwindigkeit des Skispringers ermöglicht maßgebliche Verbesserungen für die Sprunganalyse der Trainer. Um die für die Athleten wichtigen Parameter, wie Anlaufgeschwindigkeit, Absprunggeschwindigkeit, Luftauftrieb und Luftwiderstand bestimmen zu können, müssen die ersten 40 m der Sprungtrajektorie mit einer Genauigkeit von wenigen Zentimetern und die Geschwindigkeit mit einer Genauigkeit von mindestens 0.5 km/h vorliegen. Aufgrund der Tatsache, dass Skisprungschanzen aufgrund der besseren Schneesituation auf Nordhängen liegen und diese für besseren Windschutz von Wald umgeben sind, kommt es zu vermehrten Abschattungen der Satellitensignale. Zudem ist die hohe Kinematik im Skisprungsport und das geringe Gewicht, das die GPS-Ausrüstung aufweisen darf, ein nicht zu vernachlässigender Faktor. Die Herausforderung dieser Diplomarbeit besteht darin, die Auswertung der Trajektorienpunkte so zu verbessern, dass die geforderte Positionsgenauigkeit erreicht werden kann. Dies erfordert die Verwendung eines Initialisierungspunktes, dessen bekannte Koordinaten genützt werden um die Ambiguitäten ganzzahlig zu fixieren. Weiters wird ein Algorithmus zur Detektion bzw. Korrektur von Datenlücken, Cycle Slips und Daten unzureichender Qualität in den rohen Trägerphasen-Messungen konzipiert und erstellt. Sind die Rohdaten korrigiert, wird die Skisprung-Trajektorie mit der kommerziellen Auswertesoftware GrafNav berechnet. Die Ergebnisse zeigen, dass die Interpolation der Datenlücken, die Elimination der Cycle Slips und die Korrektur der Daten geringer Qualität eine Qualitätsverbesserung der ausgewerteten Skisprung-Trajektorie ermöglicht. Dabei wird vorausgesetzt, dass Signale von mindestens vier Satelliten aufgezeichnet worden sind und ein Initialisierungspunkt verwendet wird. Außerdem werden die Probleme, die bei der Qualitätsverbesserung der rohen Trägerphasen-Messungen auftreten können, behandelt und mögliche Verbesserungsansätze dazu aufgezeigt.
Tellus: Untersuchung und Umsetzung eines echtzeitfähigen Trackingsystems für Mobiltelefon Benutzer
Institut für Geoinformation, Technische Universität Graz, 2009
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Mobiltelefone sind heutzutage hoch technologisiert und haben einen extrem hohen Verbreitungsgrad unter der Bevölkerung. Auch der Markt an kostengünstigen GPS Empfängern, zur Navigation im Auto zum Beispiel, wächst rasant an. Unabhängig davon entwickeln sich interaktive Karten im Internet (Web Mapping), allen voran die Karten von Google, zu einem wichtigen Dienst, der in aller Munde ist. In dieser Arbeit werden Technologien im Umfeld dieser Komponenten und deren Kombination zu einem Trackingsystem beschrieben. Ein besonderes Augenmerk liegt darauf, eine kostengünstige und leicht zugängliche Lösung zu finden. Diese Arbeit stellt eine wissenschaftliche Abhandlung, von der Positionsbestimmung eines bewegten Objektes, über das Senden von Daten an einen zentralen Server, bis hin zur Verwaltung der Daten in Datenbanken, und schließlich der Visualisierung dar. Dabei zieht sich die spezielle Rücksichtnahme auf Interoperabilität, Standards und Normen, sowohl was Software, als auch was Datenformate anbelangt, wie ein roter Faden durch den gesamten Bericht. Im Zuge dieser Diplomarbeit wurde das Trackingsystem Tellus implementiert. Die Beschreibung der Umsetzung stellt einen weiteren Teil der Arbeit dar. Technologien, die nicht unmittelbar im Zusammenhang mit dem Thema Tracking stehen, deren Hintergrund aber trotzdem als hilfreich angesehen wird, werden in diesem Teil neben Vorteilen und Problemen des gewählten Ansatzes beschrieben.
Mobiltelefone sind heutzutage hoch technologisiert und haben einen extrem hohen Verbreitungsgrad unter der Bevölkerung. Auch der Markt an kostengünstigen GPS Empfängern, zur Navigation im Auto zum Beispiel, wächst rasant an. Unabhängig davon entwickeln sich interaktive Karten im Internet (Web Mapping), allen voran die Karten von Google, zu einem wichtigen Dienst, der in aller Munde ist. In dieser Arbeit werden Technologien im Umfeld dieser Komponenten und deren Kombination zu einem Trackingsystem beschrieben. Ein besonderes Augenmerk liegt darauf, eine kostengünstige und leicht zugängliche Lösung zu finden. Diese Arbeit stellt eine wissenschaftliche Abhandlung, von der Positionsbestimmung eines bewegten Objektes, über das Senden von Daten an einen zentralen Server, bis hin zur Verwaltung der Daten in Datenbanken, und schließlich der Visualisierung dar. Dabei zieht sich die spezielle Rücksichtnahme auf Interoperabilität, Standards und Normen, sowohl was Software, als auch was Datenformate anbelangt, wie ein roter Faden durch den gesamten Bericht. Im Zuge dieser Diplomarbeit wurde das Trackingsystem Tellus implementiert. Die Beschreibung der Umsetzung stellt einen weiteren Teil der Arbeit dar. Technologien, die nicht unmittelbar im Zusammenhang mit dem Thema Tracking stehen, deren Hintergrund aber trotzdem als hilfreich angesehen wird, werden in diesem Teil neben Vorteilen und Problemen des gewählten Ansatzes beschrieben.
Modellierung des Erdschwerefeldes aus Satelliten-Beschleunigungen
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2008
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Kurzfassung/Abstract
Das Gravitationsfeld der Erde ist fortlaufenden Veränderungen unterworfen, welche mit der inhomogenen Massenverteilung im Erdinneren und der nicht exakten Kugelfigur in Verbindung stehen. Untersuchungen über einen Zeitraum der letzten Jahre zeigen, dass auch klimatische Einflüsse, wie die Gletscherschmelze an den Polen, sowie Meeresströmungsveränderungen das Erdgravitationsfeld beeinflussen. Im Juli 2000 wurde mit der Satellitenmission CHAMP (CHAllenging Minisatellite Payload) ein neuer Schritt in Richtung Erdbeobachtung gesetzt, der eine permanente Überwachung unseres Planeten ermöglichte. Die Nachfolgemission GOCE (Gravity Field and Steady-State Ocean Circulation Explorer) ist eine konsequente Weiterentwicklung zur detaillierten Modellierung des Schwerefeldes, um die Erde als einheitliches System verstehen zu können. Globale Schwerefeldmodelle können aus Satellitenbahnstörungen abgeleitet werden und wertvolle Informationen über die Intensität sowie die zeitlichen und räumlichen Veränderungen des Erdschwerefeldes liefern. Im Rahmen dieser Masterarbeit soll die Verarbeitung von Satellitenbeschleunigungen auf Grund von Orbitpositionen gezeigt und daraus ein Erdschwerefeldmodell durch Parametrisierung mittels Entwicklung in eine Kugelfunktionsreihe abgeleitet werden. Die unbekannten Parameter der Kugelfunktionsreihe stellen die Gauss-Koeffizienten dar, die durch eine vermittelnde Ausgleichung nach der Methode der kleinsten Quadrate ermittelt werden. Die korrekte Implementierung des mathematischen Modells wurde in einer synthetischen Testumgebung kontrolliert. Es wurde dabei festgestellt, dass die am genauesten abgeleiteten Beschleunigungen aufgrund der Filterwirkung der Differentiatoren nicht immer die besten Schwerefeldmodelle lieferten. Abschließend wurden reale CHAMP Daten herangezogen, um ein Modell bis Grad 60 zu berechnen.
Das Gravitationsfeld der Erde ist fortlaufenden Veränderungen unterworfen, welche mit der inhomogenen Massenverteilung im Erdinneren und der nicht exakten Kugelfigur in Verbindung stehen. Untersuchungen über einen Zeitraum der letzten Jahre zeigen, dass auch klimatische Einflüsse, wie die Gletscherschmelze an den Polen, sowie Meeresströmungsveränderungen das Erdgravitationsfeld beeinflussen. Im Juli 2000 wurde mit der Satellitenmission CHAMP (CHAllenging Minisatellite Payload) ein neuer Schritt in Richtung Erdbeobachtung gesetzt, der eine permanente Überwachung unseres Planeten ermöglichte. Die Nachfolgemission GOCE (Gravity Field and Steady-State Ocean Circulation Explorer) ist eine konsequente Weiterentwicklung zur detaillierten Modellierung des Schwerefeldes, um die Erde als einheitliches System verstehen zu können. Globale Schwerefeldmodelle können aus Satellitenbahnstörungen abgeleitet werden und wertvolle Informationen über die Intensität sowie die zeitlichen und räumlichen Veränderungen des Erdschwerefeldes liefern. Im Rahmen dieser Masterarbeit soll die Verarbeitung von Satellitenbeschleunigungen auf Grund von Orbitpositionen gezeigt und daraus ein Erdschwerefeldmodell durch Parametrisierung mittels Entwicklung in eine Kugelfunktionsreihe abgeleitet werden. Die unbekannten Parameter der Kugelfunktionsreihe stellen die Gauss-Koeffizienten dar, die durch eine vermittelnde Ausgleichung nach der Methode der kleinsten Quadrate ermittelt werden. Die korrekte Implementierung des mathematischen Modells wurde in einer synthetischen Testumgebung kontrolliert. Es wurde dabei festgestellt, dass die am genauesten abgeleiteten Beschleunigungen aufgrund der Filterwirkung der Differentiatoren nicht immer die besten Schwerefeldmodelle lieferten. Abschließend wurden reale CHAMP Daten herangezogen, um ein Modell bis Grad 60 zu berechnen.
Das Europäische Satellitennavigationssystem: Finanzierbarer Auftrag für die Europäische Wirtschaft oder finanzieller Gau?
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2008
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Kurzfassung/Abstract
GALILEO ist das europäische Satellitennavigationssystem, das zur politischen und wirtschaftlichen Unabhängigkeit von den USA ins Leben gerufen wurde und eine Alternative für das amerikanische GPS und das russische GLONASS bilden soll. Im Gegensatz zu den Vertretern der Europäischen Union haben die Industriepartner des Projects ihr vertrauen in die Rentabilität verloren und sich zurückgezogen. Der Markt im Bereich der Navigation und Positionsbestimmung ist sehr schwer einzuschätzen. Diese Arbeit soll ein Versuch sein, die Vorteile von GALILEO aufzuzeigen und damit einen möglichen Weg zur Refinanzierung der Entstehungskosten zu finden und abzuschätzen.
Tatsächlich gibt es eine Reihe von Anwendungen, die dem verbesserten Angebot von GALILEO entsprechen und auch das Einheben von Gebühren rechtfertigen, jedoch gibt es keine Hinweise der Betreiber auf die Höhe der möglichen Gebühren.
Neben einer technischen Gegenüberstellung der verschiedenen Satelliten-Navigationssysteme, wird vor allem versucht, Benutzergruppen zu finden, die potentiellen Kunden tatsächlich bereit sind, zu welchen Konditionen Positionsdaten zu kaufen. So die politischen Rahmenbedingungen für die einzelnen Benutzersparten entsprechend sind, scheint eine Finanzierung möglich. Diverse Versuche mit Schätzungen der möglichen Einnahmen untermauern diese Meinung. Auf alle Fälle hat sich die Europäische Union entschlossen, das System fertig zu stellen, auch auf die Gefahr hin, dass die kommerzielle Finanzierung scheitert. Nicht zuletzt geht es bei dem Projekt nicht nur um politische Unabhängigkeit, sondern auch um wirtschaftliche Konkurrenzfähigkeit am Weltmarkt und die Belebung des Europäischen Weltraum-Programms.
GALILEO ist das europäische Satellitennavigationssystem, das zur politischen und wirtschaftlichen Unabhängigkeit von den USA ins Leben gerufen wurde und eine Alternative für das amerikanische GPS und das russische GLONASS bilden soll. Im Gegensatz zu den Vertretern der Europäischen Union haben die Industriepartner des Projects ihr vertrauen in die Rentabilität verloren und sich zurückgezogen. Der Markt im Bereich der Navigation und Positionsbestimmung ist sehr schwer einzuschätzen. Diese Arbeit soll ein Versuch sein, die Vorteile von GALILEO aufzuzeigen und damit einen möglichen Weg zur Refinanzierung der Entstehungskosten zu finden und abzuschätzen.
Tatsächlich gibt es eine Reihe von Anwendungen, die dem verbesserten Angebot von GALILEO entsprechen und auch das Einheben von Gebühren rechtfertigen, jedoch gibt es keine Hinweise der Betreiber auf die Höhe der möglichen Gebühren.
Neben einer technischen Gegenüberstellung der verschiedenen Satelliten-Navigationssysteme, wird vor allem versucht, Benutzergruppen zu finden, die potentiellen Kunden tatsächlich bereit sind, zu welchen Konditionen Positionsdaten zu kaufen. So die politischen Rahmenbedingungen für die einzelnen Benutzersparten entsprechend sind, scheint eine Finanzierung möglich. Diverse Versuche mit Schätzungen der möglichen Einnahmen untermauern diese Meinung. Auf alle Fälle hat sich die Europäische Union entschlossen, das System fertig zu stellen, auch auf die Gefahr hin, dass die kommerzielle Finanzierung scheitert. Nicht zuletzt geht es bei dem Projekt nicht nur um politische Unabhängigkeit, sondern auch um wirtschaftliche Konkurrenzfähigkeit am Weltmarkt und die Belebung des Europäischen Weltraum-Programms.
Automatization of Data Acquisition and Processing for Pedestrian Navigation System Purposes
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2008
Betreuer: o.Univ.-Prof. Dr. Andreas Frank, Institut für Geoinformation und Kartographie; Geodezja i kartografia, Krakau, Polen
Betreuer: o.Univ.-Prof. Dr. Andreas Frank, Institut für Geoinformation und Kartographie; Geodezja i kartografia, Krakau, Polen
Kurzfassung/Abstract
Wayfinding is a vital part of our everyday life. Since it is our daily routine, hardly anybody realizes what a demanding task it is and that it requires certain spatial and cognitive abilities. To develop supporting tools for wayfinding, it is essential to know the mechanisms that control these processes. With a progress of technology, the size and weight of electronic devices have diminished significantly. The dropping of prices and wide-ranging availability of such devices increased interest in such systems. Factors like size and availability were the reason for calling them "ubiquitous systems".
The market is full of perfectly working navigation systems for car drivers. They are widespread, have high user-acceptance level and their market is fast-growing. Can one modify such systems in a way that pedestrians can use it? The problem is more complex than one might imagine at first sight. Field tests show, that systems for car drivers do not meet the requirements of pedestrian users. Car and pedestrian navigation differ in: degree of freedom, velocity of movement and spatial resolution.
This work is focused on data acquisition. The required data cannot be based on the same datasets used for car navigation systems. Automatization of the process of data acquisition is also required. Theoretical base of pedestrian navigation system is introduced in this work. The emphasis was put on the mechanisms responsible for surrounding environments' perception. A conception of cognitive maps and image schemata, which are working in our minds, was presented. This paper explains what are our needs and information categories, while we perform wayfinding task.
Elaborated wayfinding model, assumes construction of decision scenes, which will replace well known from car driver navigation systems decision points. The result of this research is an algorithm allowing automatic data processing for pedestrian navigation system. Through successive phases of preprocessing, binarization, skeletonization and application of Voronoi diagrams, the navigationable graph was obtained. It includes decision scenes and is ready for an implementation to the new system.
Wayfinding is a vital part of our everyday life. Since it is our daily routine, hardly anybody realizes what a demanding task it is and that it requires certain spatial and cognitive abilities. To develop supporting tools for wayfinding, it is essential to know the mechanisms that control these processes. With a progress of technology, the size and weight of electronic devices have diminished significantly. The dropping of prices and wide-ranging availability of such devices increased interest in such systems. Factors like size and availability were the reason for calling them "ubiquitous systems".
The market is full of perfectly working navigation systems for car drivers. They are widespread, have high user-acceptance level and their market is fast-growing. Can one modify such systems in a way that pedestrians can use it? The problem is more complex than one might imagine at first sight. Field tests show, that systems for car drivers do not meet the requirements of pedestrian users. Car and pedestrian navigation differ in: degree of freedom, velocity of movement and spatial resolution.
This work is focused on data acquisition. The required data cannot be based on the same datasets used for car navigation systems. Automatization of the process of data acquisition is also required. Theoretical base of pedestrian navigation system is introduced in this work. The emphasis was put on the mechanisms responsible for surrounding environments' perception. A conception of cognitive maps and image schemata, which are working in our minds, was presented. This paper explains what are our needs and information categories, while we perform wayfinding task.
Elaborated wayfinding model, assumes construction of decision scenes, which will replace well known from car driver navigation systems decision points. The result of this research is an algorithm allowing automatic data processing for pedestrian navigation system. Through successive phases of preprocessing, binarization, skeletonization and application of Voronoi diagrams, the navigationable graph was obtained. It includes decision scenes and is ready for an implementation to the new system.
OpenGeoTag-- An Open Source Software for Localisation of Digital Amateur Photographs
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2008
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Betreuer: o.Univ.-Prof. Dr. Andreas Frank
Kurzfassung/Abstract
Digital photographs offer the possibility to store metadata regarding time and location where the photograph was taken. GPS receivers can keep a record of locations and timestamps, from which coordinates for photo locations can be calculated. Putting this information into the photo record is called "geotagging". This thesis discusses this technology and develops an open source software suite to tag photographs and to search for photographs using this geographical information.
Digital photographs offer the possibility to store metadata regarding time and location where the photograph was taken. GPS receivers can keep a record of locations and timestamps, from which coordinates for photo locations can be calculated. Putting this information into the photo record is called "geotagging". This thesis discusses this technology and develops an open source software suite to tag photographs and to search for photographs using this geographical information.