- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2014
Abschlussarbeiten 2014
Motion Estimation from Integration of Range and Intensity Data
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2014
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Prof. Dr. Konrad Schindler
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Prof. Dr. Konrad Schindler
Kurzfassung/Abstract
In den letzten Jahren haben 3D-Kameras mit hohen Bildwiederholfrequenzen und günstigem Anschaffungspreis eine große Verbreitung gefunden. Diese Kameras erlauben gleichzeitig Entfernung und Intensität zu messen und sind deshalb für viele Anwendungen interessant. Die Vermessung von Innenräumen und die selbsttätige Auto-Navigation seien als Beispiele genannt. Die Bestimmung der Bewegung der Kamera bzw. jener der beobachteten Objekte ist eine wichtige Teilaufgabe in all diesen möglichen Anwendungen. Deshalb ist es wichtig Methoden zu untersuchen, die die Bewegung unter Verwendung der simultan erfassten Strecken- und Intensitätsmessungen bestimmen. Diese Arbeit untersucht diese gemeinsame Verwendung von Strecken- und Intensitätsmessungen für die Bewegungsbestimmung. Dabei wird die Bewegungsbestimmung sowohl von einer bewegten Kamera als auch von mehreren sich unabhängig bewegenden Objekten untersucht. Die gemeinsame Verarbeitung der Entfernungs- und Intensitätsmessungen wird über Range-Flow und Optical-Flow-Bedingungen realisiert. Der in Entfernungsbildern formulierte Range-Flow und der in Intensitätsbildern formulierte Optical-Flow verwenden sehr ähnliche mathematische Beschreibungen. Daher lassen sich beide sehr gut in einer gemeinsamen Parameterschätzung zusammenfassen. Anhand dieser Flow-Algorithmen wird zuerst die relative Orientierung eines Paars von aufeinanderfolgenden Bildern bestimmt. Dabei wird ein hochgradig überbestimmtes Gleichungssystem gelöst um die sechs Parameter der relativen Orientierung zu berechnen. Die Trajektorie der bewegten Kamera ergibt sich dann aus der Sequenz aller paarweise berechneten relativen Orientierungen. Diese paarweise Aneinanderreihung führt zu einer Aufsummierung von Fehlern, was sich in einem Gangfehler in der berechneten Trajektorie niederschlägt. Um dieses Problem zu lösen und somit eine global konsistente Trajektorie zu bestimmen, werden die Ergebnisse aller relativen Orientierungen in einer gemeinsamen Bündelblockausgleichung eingeführt. Für die Schätzung einer global konsistenten Trajektorie ist es wichtig denselben Objektbereich mehrmals zu erfassen und diese so entstehenden Schleifenschlüsse zu identifizieren. Für Letzteres werden eindeutige Merkmale in den Bildern extrahiert und gematcht. In Innenraumbereichen können diese Merkmale selten auftreten wenn die Umgebung entweder einfarbig ist oder über sich wiederholende Muster verfügt. In solchen Szenarien sind die Extraktion und das Matching von robusten Merkmalen somit sehr schwierig. In dieser Arbeit wird dieses Problem durch die geschätzten relativen Orientierungen in der Bündelblockausgleichung gelöst. Somit kann die Orientierung auch dann noch genau geschätzt werden, wenn die Anzahl der Merkmale gering oder deren Verteilung ungünstig ist. Der vorgestellte Algorithmus wird anhand einer öffentlichen Datenbank an Bildern getestet. Die Einordnung der Performance des Algorithmus in die dort veröffentlichten Vergleichswerte ("Benchmark") zeigt, dass er sich im Vergleich zu anderen aktuellen Methoden sehr gut hält. Die weitere Analyse anhand der Varianz-Komponenten-Schätzung in der Bündelblockausgleichung hat gezeigt, dass die original geschätzten Genauigkeitswerte der relativen Orientierung viel zu optimistisch ausfallen. Im letzten Teil der Arbeit wird eine Methode vorgestellt, wie anhand einer statischen Kamera die Trajektorien von sich unabhängig voneinander bewegenden Objekten bestimmt werden kann. Auch hier wird wieder auf die gemeinsame Verwendung von Range-Flow und Optical-Flow zurückgegriffen. Die Bestimmung erfolgt in zwei Schritten. Im ersten Schritt werden lokale Bewegungsvektoren berechnet. Im zweiten Schritt werden diese einer globalen Optimierung unterzogen wodurch sich dann ein geglättetes dichtes Feld von Bewegungsvektoren ergibt. Der Vorteil dieses Zugangs liegt darin, dass es auf ein lineares Gleichungssystem führt, welches iterativ gelöst wird um grobe Fehler zu entfernen. Den Abschluss der Arbeit bildet ein praktisches Beispiel, bei dem die Bewegungsvektoren aufgrund eines Erdrutsches aus multi-temporalen Laserdaten bestimmt werden. Die Berechnung verwendet den Range-Flow und wendet diesen auf rasterbasierte digitale Oberflächenmodelle an. Zusammenfassend wurde in dieser Arbeit gezeigt, dass die gemeinsame Verwendung von Entfernungs- und Intensitätsmessungen, die Kombination von lokalen und globalen Modellen und die Berücksichtigung der stochastischen Eigenschaften der Messungen bei der Parameterschätzung durchführbar und auch von Vorteil sind.
In den letzten Jahren haben 3D-Kameras mit hohen Bildwiederholfrequenzen und günstigem Anschaffungspreis eine große Verbreitung gefunden. Diese Kameras erlauben gleichzeitig Entfernung und Intensität zu messen und sind deshalb für viele Anwendungen interessant. Die Vermessung von Innenräumen und die selbsttätige Auto-Navigation seien als Beispiele genannt. Die Bestimmung der Bewegung der Kamera bzw. jener der beobachteten Objekte ist eine wichtige Teilaufgabe in all diesen möglichen Anwendungen. Deshalb ist es wichtig Methoden zu untersuchen, die die Bewegung unter Verwendung der simultan erfassten Strecken- und Intensitätsmessungen bestimmen. Diese Arbeit untersucht diese gemeinsame Verwendung von Strecken- und Intensitätsmessungen für die Bewegungsbestimmung. Dabei wird die Bewegungsbestimmung sowohl von einer bewegten Kamera als auch von mehreren sich unabhängig bewegenden Objekten untersucht. Die gemeinsame Verarbeitung der Entfernungs- und Intensitätsmessungen wird über Range-Flow und Optical-Flow-Bedingungen realisiert. Der in Entfernungsbildern formulierte Range-Flow und der in Intensitätsbildern formulierte Optical-Flow verwenden sehr ähnliche mathematische Beschreibungen. Daher lassen sich beide sehr gut in einer gemeinsamen Parameterschätzung zusammenfassen. Anhand dieser Flow-Algorithmen wird zuerst die relative Orientierung eines Paars von aufeinanderfolgenden Bildern bestimmt. Dabei wird ein hochgradig überbestimmtes Gleichungssystem gelöst um die sechs Parameter der relativen Orientierung zu berechnen. Die Trajektorie der bewegten Kamera ergibt sich dann aus der Sequenz aller paarweise berechneten relativen Orientierungen. Diese paarweise Aneinanderreihung führt zu einer Aufsummierung von Fehlern, was sich in einem Gangfehler in der berechneten Trajektorie niederschlägt. Um dieses Problem zu lösen und somit eine global konsistente Trajektorie zu bestimmen, werden die Ergebnisse aller relativen Orientierungen in einer gemeinsamen Bündelblockausgleichung eingeführt. Für die Schätzung einer global konsistenten Trajektorie ist es wichtig denselben Objektbereich mehrmals zu erfassen und diese so entstehenden Schleifenschlüsse zu identifizieren. Für Letzteres werden eindeutige Merkmale in den Bildern extrahiert und gematcht. In Innenraumbereichen können diese Merkmale selten auftreten wenn die Umgebung entweder einfarbig ist oder über sich wiederholende Muster verfügt. In solchen Szenarien sind die Extraktion und das Matching von robusten Merkmalen somit sehr schwierig. In dieser Arbeit wird dieses Problem durch die geschätzten relativen Orientierungen in der Bündelblockausgleichung gelöst. Somit kann die Orientierung auch dann noch genau geschätzt werden, wenn die Anzahl der Merkmale gering oder deren Verteilung ungünstig ist. Der vorgestellte Algorithmus wird anhand einer öffentlichen Datenbank an Bildern getestet. Die Einordnung der Performance des Algorithmus in die dort veröffentlichten Vergleichswerte ("Benchmark") zeigt, dass er sich im Vergleich zu anderen aktuellen Methoden sehr gut hält. Die weitere Analyse anhand der Varianz-Komponenten-Schätzung in der Bündelblockausgleichung hat gezeigt, dass die original geschätzten Genauigkeitswerte der relativen Orientierung viel zu optimistisch ausfallen. Im letzten Teil der Arbeit wird eine Methode vorgestellt, wie anhand einer statischen Kamera die Trajektorien von sich unabhängig voneinander bewegenden Objekten bestimmt werden kann. Auch hier wird wieder auf die gemeinsame Verwendung von Range-Flow und Optical-Flow zurückgegriffen. Die Bestimmung erfolgt in zwei Schritten. Im ersten Schritt werden lokale Bewegungsvektoren berechnet. Im zweiten Schritt werden diese einer globalen Optimierung unterzogen wodurch sich dann ein geglättetes dichtes Feld von Bewegungsvektoren ergibt. Der Vorteil dieses Zugangs liegt darin, dass es auf ein lineares Gleichungssystem führt, welches iterativ gelöst wird um grobe Fehler zu entfernen. Den Abschluss der Arbeit bildet ein praktisches Beispiel, bei dem die Bewegungsvektoren aufgrund eines Erdrutsches aus multi-temporalen Laserdaten bestimmt werden. Die Berechnung verwendet den Range-Flow und wendet diesen auf rasterbasierte digitale Oberflächenmodelle an. Zusammenfassend wurde in dieser Arbeit gezeigt, dass die gemeinsame Verwendung von Entfernungs- und Intensitätsmessungen, die Kombination von lokalen und globalen Modellen und die Berücksichtigung der stochastischen Eigenschaften der Messungen bei der Parameterschätzung durchführbar und auch von Vorteil sind.
Design and implementation of a rock slope monitoring system based on "Image Assisted Total Stations"
Institut für Fernerkundung, Technische Universität Graz, 2014
Begutachter: Ao.Univ.-Prof. Dipl.-Ing. Dr. Viktor Kaufmann, Dipl.Ing. Dr. Alexander Reiterer
Begutachter: Ao.Univ.-Prof. Dipl.-Ing. Dr. Viktor Kaufmann, Dipl.Ing. Dr. Alexander Reiterer
Kurzfassung/Abstract
Ziel der vorliegenden Arbeit war die Entwicklung einer modularen photogrammetrischen Auswertekette orientierter Bildverbände, welche mittels zweier "Image Assisted Total Stations" (IATS) aufgenommen wurden. Ziel der Messungen ist eine Überwachung durch Felssturz gefährdeter Objekte. Die Messungen erfolgen kontinuierlich um mögliche Deformationen zu detektieren. Die entwickelte Auswertekette zielt darauf ab korrespondierende Stereopunkte in Stereobildpaaren automatisiert zu berechnen und diese Punkte in weiteren Messepochen zu verfolgen. Dabei soll eine möglichst hohe sub-pixel Genauigkeit erreicht werden. Mittels eines räumlichen Vorwärtsschnittes werden die 3D Positionen der Punkte bestimmt. Die verwendeten IATS liefern hochauflösende orientierte Bildverbände. Einzelne Aufnahmen zeigen einen Bereich von 1.56 x 1.17 gon. Das entspricht einer Bodenauflösung von rund 1 mm in 100 m Entfernung. Höhere räumliche Abdeckung wird durch die motorgesteuerte Bewegung der Geräteachsen gewährleistet. Die Aufnahmedauer für einzelne Bilder liegt bei rund 5 Sekunden. Im Fall einer kontinuierlichen Überwachung ist dies daher die Zeit, die für die Datenauswertung zur Verfügung steht. Die entwickelte Auswertekette wurde sowohl mittels synthetischer Testdaten als auch realer Experimente im Feld evaluiert. Es werden ähnliche Genauigkeiten erzielt wie bei Theodolit Richtungsmessungen signalisierter Punkte. Allerdings kann dies automatisiert mit einer ungleich höheren Punktdichte auch für nicht signalisierte Punkte gewährleistet werden. Das Mess- und Auswertekonzept verbindet die hohe Genauigkeit manueller Richtungsmessungen mittels Theodolit mit der hohen Punktdichte und Automatisierbarkeit von Laser Scannern.
Ziel der vorliegenden Arbeit war die Entwicklung einer modularen photogrammetrischen Auswertekette orientierter Bildverbände, welche mittels zweier "Image Assisted Total Stations" (IATS) aufgenommen wurden. Ziel der Messungen ist eine Überwachung durch Felssturz gefährdeter Objekte. Die Messungen erfolgen kontinuierlich um mögliche Deformationen zu detektieren. Die entwickelte Auswertekette zielt darauf ab korrespondierende Stereopunkte in Stereobildpaaren automatisiert zu berechnen und diese Punkte in weiteren Messepochen zu verfolgen. Dabei soll eine möglichst hohe sub-pixel Genauigkeit erreicht werden. Mittels eines räumlichen Vorwärtsschnittes werden die 3D Positionen der Punkte bestimmt. Die verwendeten IATS liefern hochauflösende orientierte Bildverbände. Einzelne Aufnahmen zeigen einen Bereich von 1.56 x 1.17 gon. Das entspricht einer Bodenauflösung von rund 1 mm in 100 m Entfernung. Höhere räumliche Abdeckung wird durch die motorgesteuerte Bewegung der Geräteachsen gewährleistet. Die Aufnahmedauer für einzelne Bilder liegt bei rund 5 Sekunden. Im Fall einer kontinuierlichen Überwachung ist dies daher die Zeit, die für die Datenauswertung zur Verfügung steht. Die entwickelte Auswertekette wurde sowohl mittels synthetischer Testdaten als auch realer Experimente im Feld evaluiert. Es werden ähnliche Genauigkeiten erzielt wie bei Theodolit Richtungsmessungen signalisierter Punkte. Allerdings kann dies automatisiert mit einer ungleich höheren Punktdichte auch für nicht signalisierte Punkte gewährleistet werden. Das Mess- und Auswertekonzept verbindet die hohe Genauigkeit manueller Richtungsmessungen mittels Theodolit mit der hohen Punktdichte und Automatisierbarkeit von Laser Scannern.
Improvements in Modeling Gross Primary Productivity over Northern Eurasia
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2014
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Eitzinger
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Eitzinger
Kurzfassung/Abstract
Das übergreifende Ziel dieser Forschungsarbeit ist die Verbesserung in der Modellierung von ökosystemarer Photosynthese bzw. Bruttoprimärproduktion (BPP), insbesondere für Nord Eurasien (NE). Aus der Vielzahl von Methoden zum Monitoring von terrestrischer BPP fokussiert diese Arbeit auf Produktionseffizienzmodelle (PEM). PEMs stellen die meteorologische Bedingung von verfügbarem Sonnenlicht in Kombination mit der ökologischen hinsichtlich der Blattflächenmenge zur Absorption dieser solaren Energie dar; ein Prozess, zu dessen Erfassung sich Satellitenbeobachtung anbietet. Eine Reihe von verbesserungsbedürftigen Aspekten für PEMs wurde in dieser Forschungsarbeit identifiziert. Diese inkludieren die Anwendung von alternativen biophysikalischen Datensätzen in Modellen, das Design von diagnostischen Modellen und die Berücksichtigung von eindeutigen Biom Merkmalen, die Parametrisierung von diagnostischen Modellen mit in-situ Daten und das Up-Scaling von Modellergebnissen. Unter Einbeziehung der oben angeführten Ergebnisse, wurde letztlich eine Technik entwickelt für eine regional gerasterte BPP Erfassung unter Anwendung von Eddy Kovarianz Abschätzungen für Russland, einer Region, die nur spärlich mit in-situ Stationen ausgestattet ist. Das diagnostische Modell wurde zuvor schon für diese Region validiert und verwendet satellitengestützte fAPAR, die für Russland am geeignetsten erachtet werden. Die Resultate wurden verglichen mit jenen eines Moderate Resolution Imaging Spectroradiometer (MODIS) für Russland (unter Verwendung eines Kohlenstoffbilanzierungsansatzes als Baseline) um darzulegen, dass die neue Methode plausible Resultate liefert. Mit RMSE Werten von 13% versus 23% erreicht die neue Methode substantielle Verbesserungen für eine große Region und liefert damit genauere Ergebnisse für BPP als parametrierte globale Modelle. Weiters zeigt die Methode, dass ein Up-Scaling Verfahren sich sogar mit eingeschränkter EC Datenverfügbarkeit als effektiv erweist.
Das übergreifende Ziel dieser Forschungsarbeit ist die Verbesserung in der Modellierung von ökosystemarer Photosynthese bzw. Bruttoprimärproduktion (BPP), insbesondere für Nord Eurasien (NE). Aus der Vielzahl von Methoden zum Monitoring von terrestrischer BPP fokussiert diese Arbeit auf Produktionseffizienzmodelle (PEM). PEMs stellen die meteorologische Bedingung von verfügbarem Sonnenlicht in Kombination mit der ökologischen hinsichtlich der Blattflächenmenge zur Absorption dieser solaren Energie dar; ein Prozess, zu dessen Erfassung sich Satellitenbeobachtung anbietet. Eine Reihe von verbesserungsbedürftigen Aspekten für PEMs wurde in dieser Forschungsarbeit identifiziert. Diese inkludieren die Anwendung von alternativen biophysikalischen Datensätzen in Modellen, das Design von diagnostischen Modellen und die Berücksichtigung von eindeutigen Biom Merkmalen, die Parametrisierung von diagnostischen Modellen mit in-situ Daten und das Up-Scaling von Modellergebnissen. Unter Einbeziehung der oben angeführten Ergebnisse, wurde letztlich eine Technik entwickelt für eine regional gerasterte BPP Erfassung unter Anwendung von Eddy Kovarianz Abschätzungen für Russland, einer Region, die nur spärlich mit in-situ Stationen ausgestattet ist. Das diagnostische Modell wurde zuvor schon für diese Region validiert und verwendet satellitengestützte fAPAR, die für Russland am geeignetsten erachtet werden. Die Resultate wurden verglichen mit jenen eines Moderate Resolution Imaging Spectroradiometer (MODIS) für Russland (unter Verwendung eines Kohlenstoffbilanzierungsansatzes als Baseline) um darzulegen, dass die neue Methode plausible Resultate liefert. Mit RMSE Werten von 13% versus 23% erreicht die neue Methode substantielle Verbesserungen für eine große Region und liefert damit genauere Ergebnisse für BPP als parametrierte globale Modelle. Weiters zeigt die Methode, dass ein Up-Scaling Verfahren sich sogar mit eingeschränkter EC Datenverfügbarkeit als effektiv erweist.
My Way - Towards a Typology of Pedestrian Spatio-temporal Behaviour in Shopping Environments
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Begutachter: Univ.Prof. Mag. Dr. Georg Gartner, O.Univ.Prof. Mag. Dr. Jens Dangschat
Begutachter: Univ.Prof. Mag. Dr. Georg Gartner, O.Univ.Prof. Mag. Dr. Jens Dangschat
Kurzfassung/Abstract
Fußgänger nützen und bewegen sich durch den öffentlichen Raum auf sehr unterschiedliche Weise, was auf eine Vielzahl an verschiedenen Einflussfaktoren zurückgeführt werden kann. Erkenntnisse über die Faktoren, die Verhaltensunterschiede bewirken, sind jedoch nur unzureichend bekannt und geben kaum Aufschluss über die konkreten Effekte auf Bewegungsmuster. Profundes Wissen über die Existenz spezifischer Typen des räumlich-zeitlichen Verhaltens von Fußgängern böte eine Unterstützung bei der Entwicklung von nutzerspezifischen Tools und Services zur Optimierung der Raumnutzung oder zur Unterstützung von Fußgängern bei der Bewältigung ihrer täglichen Aufgaben, z.B. Fußgängernavigationssysteme, Planung und Design von Gebäuden oder Plätzen oder Simulationssysteme für Fußgängerströme.
Insbesondere die Entwicklung von Navigations- und Informationssystemen für Fußgänger stößt auf einige Herausforderungen. Im Gegensatz zu gebräuchlichen Autonavigationssystemen müssen Navigationssysteme für Fußgänger sehr komplexe Anforderungen erfüllen um akzeptiert zu werden: Für Fußgänger ist nicht immer der kürzeste Weg die optimale Lösung für individuelle Zwecke, da Studien belegen, dass Fußgänger oft auf den kürzesten Weg verzichten und stattdessen den „schönsten", den „bequemsten" oder den „sichersten" Weg bevorzugen. Fußgänger, die in ihnen unbekannte Gebiete kommen, würden daher besonders von Systemen profitieren, welche Informationen über ihre bevorzugten Routenqualitäten, für sie interessante Einrichtungen in der Umgebung und andere nützliche orts- und nutzerbezogene Informationen bieten könnten.
In dieser Arbeit werden gruppenspezifische raum-zeitliche Verhaltensmuster von Fußgängern und damit in Zusammenhang stehende Einflussfaktoren untersucht, um homogene Verhaltenstypen auf der Basis von Bewegungsmustern und Einstellungsmerkmalen zu identifizieren. Die Untersuchung erfolgt in Einkaufsumgebungen, um (1) Verhaltensunterschiede innerhalb einer konstanten Kontextsituation erforschen zu können und um (2) die daraus resultierenden Typen mit den Ergebnissen aus früheren Marktforschungsstudien zu vergleichen. Um unterschiedliche potenzielle Einflussgrößen untersuchen zu können wird ein umfangreicher Ansatz unter Einbeziehung mehrerer sich ergänzender Methoden zur Datenerhebung und Analyse vorgestellt, um das Raumverhalten von Fußgängern umfassend zu verstehen. Während zwei empirischer Phasen wurden auf diese Weise verschiedene Verhaltenstypen mittels verdeckter Beobachtung, Fragebogen und einer Kombination von Tracking und Interviews identifiziert und getestet. Insgesamt wurden Datensätze von 340 Fußgängern mit unterschiedlichen Methoden in einem Einkaufszentrum und einer Einkaufsstraße in Wien gesammelt.
Die Analyse von Bewegungsmustern und dazugehörigen internen Einflussfaktoren wie z.B. Gewohnheiten, Vorlieben und Einstellungen ergibt sechs verschiedene Typen von Fußgängern in Einkaufsumgebungen. Die Typen werden umfassend entsprechend ihrer Bewegungsmuster, ihrer Einkaufsvorlieben, ihrer generellen Einstellungen und ihrer persönlichen Merkmale beschrieben. Die identifizierten Typen werden auch hinsichtlich ihrer Übereinstimmung mit den Ergebnissen früherer Konsumentenstudien diskutiert um Kongruenzen zwischen Konsumenteneinstellungen und räumlichen Bewegungsverhaltensmustern zu untersuchen. Die resultierende Typologie lebensstilbasierter Fußgängerstilen und deren charakteristischer Attribute kann wertvolle Grundlagen für verschiedene Anwendungen liefern. Besonders für die Entwicklung von ubiquitären Informations- und Navigationssystemen kann die Typologie als Basis für die Entwicklung von Fußgänger-Interessensprofilen dienen, um Navigations- und Umgebungsinformationen für mobile Applikationen individuell anzupassen und individuelle Bedürfnisse zu befriedigen.
Fußgänger nützen und bewegen sich durch den öffentlichen Raum auf sehr unterschiedliche Weise, was auf eine Vielzahl an verschiedenen Einflussfaktoren zurückgeführt werden kann. Erkenntnisse über die Faktoren, die Verhaltensunterschiede bewirken, sind jedoch nur unzureichend bekannt und geben kaum Aufschluss über die konkreten Effekte auf Bewegungsmuster. Profundes Wissen über die Existenz spezifischer Typen des räumlich-zeitlichen Verhaltens von Fußgängern böte eine Unterstützung bei der Entwicklung von nutzerspezifischen Tools und Services zur Optimierung der Raumnutzung oder zur Unterstützung von Fußgängern bei der Bewältigung ihrer täglichen Aufgaben, z.B. Fußgängernavigationssysteme, Planung und Design von Gebäuden oder Plätzen oder Simulationssysteme für Fußgängerströme.
Insbesondere die Entwicklung von Navigations- und Informationssystemen für Fußgänger stößt auf einige Herausforderungen. Im Gegensatz zu gebräuchlichen Autonavigationssystemen müssen Navigationssysteme für Fußgänger sehr komplexe Anforderungen erfüllen um akzeptiert zu werden: Für Fußgänger ist nicht immer der kürzeste Weg die optimale Lösung für individuelle Zwecke, da Studien belegen, dass Fußgänger oft auf den kürzesten Weg verzichten und stattdessen den „schönsten", den „bequemsten" oder den „sichersten" Weg bevorzugen. Fußgänger, die in ihnen unbekannte Gebiete kommen, würden daher besonders von Systemen profitieren, welche Informationen über ihre bevorzugten Routenqualitäten, für sie interessante Einrichtungen in der Umgebung und andere nützliche orts- und nutzerbezogene Informationen bieten könnten.
In dieser Arbeit werden gruppenspezifische raum-zeitliche Verhaltensmuster von Fußgängern und damit in Zusammenhang stehende Einflussfaktoren untersucht, um homogene Verhaltenstypen auf der Basis von Bewegungsmustern und Einstellungsmerkmalen zu identifizieren. Die Untersuchung erfolgt in Einkaufsumgebungen, um (1) Verhaltensunterschiede innerhalb einer konstanten Kontextsituation erforschen zu können und um (2) die daraus resultierenden Typen mit den Ergebnissen aus früheren Marktforschungsstudien zu vergleichen. Um unterschiedliche potenzielle Einflussgrößen untersuchen zu können wird ein umfangreicher Ansatz unter Einbeziehung mehrerer sich ergänzender Methoden zur Datenerhebung und Analyse vorgestellt, um das Raumverhalten von Fußgängern umfassend zu verstehen. Während zwei empirischer Phasen wurden auf diese Weise verschiedene Verhaltenstypen mittels verdeckter Beobachtung, Fragebogen und einer Kombination von Tracking und Interviews identifiziert und getestet. Insgesamt wurden Datensätze von 340 Fußgängern mit unterschiedlichen Methoden in einem Einkaufszentrum und einer Einkaufsstraße in Wien gesammelt.
Die Analyse von Bewegungsmustern und dazugehörigen internen Einflussfaktoren wie z.B. Gewohnheiten, Vorlieben und Einstellungen ergibt sechs verschiedene Typen von Fußgängern in Einkaufsumgebungen. Die Typen werden umfassend entsprechend ihrer Bewegungsmuster, ihrer Einkaufsvorlieben, ihrer generellen Einstellungen und ihrer persönlichen Merkmale beschrieben. Die identifizierten Typen werden auch hinsichtlich ihrer Übereinstimmung mit den Ergebnissen früherer Konsumentenstudien diskutiert um Kongruenzen zwischen Konsumenteneinstellungen und räumlichen Bewegungsverhaltensmustern zu untersuchen. Die resultierende Typologie lebensstilbasierter Fußgängerstilen und deren charakteristischer Attribute kann wertvolle Grundlagen für verschiedene Anwendungen liefern. Besonders für die Entwicklung von ubiquitären Informations- und Navigationssystemen kann die Typologie als Basis für die Entwicklung von Fußgänger-Interessensprofilen dienen, um Navigations- und Umgebungsinformationen für mobile Applikationen individuell anzupassen und individuelle Bedürfnisse zu befriedigen.
Full-Waveform Airborne Laser Scanning for Landscape Ecological Mapping: Methods and Applications
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2014
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Prof. Dipl.-Ing. Dr. Elmar Csaplovics
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Prof. Dipl.-Ing. Dr. Elmar Csaplovics
Kurzfassung/Abstract
Der kontinuierliche Verlust der biologischen Vielfalt (Biodiversität) in den natürlichen Lebensräumen der Europäischen Staaten kann als Tatsache betrachtet werden. Angesichts dieser Situation hat die Europäische Union (EU) das Rationalisieren des Erfassungsprozesses von Biodiversitätsindikatoren als eine ihrer obersten Prioritäten definiert, um einem weiteren Verlust entsprechend entgegenwirken zu können. In der Europäischen Kommission hat man sich auf zwei Konventionen geeinigt, die zum Ziel haben, vom Aussterben bedrohte Pflanzen- und Tierarten angemessen zu schützen: dies sind die Vogelschutzrichtlinie und die Fauna-Flora-Habitat-Richtlinie (kurz FFH-Richtlinie). Beide Richtlinien werden naturschutzrechtlich durch Natura 2000 (N 2000) implementiert, welches ein grenzübergreifendes Netzwerk von geschützten Lebensräumen in den Mitgliedsstaaten der EU definiert. Die Reglementierung besagt unter anderem, dass N 2000 - Gebiete in einem regulären Intervall von sechs Jahren wieder besucht und deren Biodiversität anhand von bestimmten festgelegten Indikatoren erhoben werden sollen. Bis heute stehen mehr als 13% der EU-Landfläche unter dem Schutz von N 2000. Die rechtlich verbindliche Zustandserfassung der entsprechenden Flächen, welche konventionellerweise manuell im Feld erfolgt, bedeutet einen enormen Arbeitsaufwand der kaum innerhalb der sechs-Jahres-Zyklen zu schaffen ist. Daher gibt es dringenden Bedarf an modernen, zeitsparenden und vergleichsweise kostengünstigen Methoden um einzelne Schritte in dem größtenteils manuellen Prozess zu unterstützen und, wenn möglich, sogar zu ersetzen. Fernerkundung (FE) ist eine effiziente Erfassungsmethode, die sehr gut dazu geeignet ist, um Daten über große Flächen in hoher zeitlicher, spektraler und räumlicher Auflösung zu erheben. Airborne laser scanning (ALS), eine relativ junge FE-Technologie, ist bekannt dafür, sehr genaue und detaillierte Aufnahmen natürlicher Lebensräume zu ermöglichen. Es besitzt die Eigenschaft, Vegetation durch kleine Lücken in der Belaubung zu durchdringen und so deren vertikale Anordnung und Struktur, sowie die darunter liegende Topographie in 3D zu erfassen. Dies sind zwei wichtige Voraussetzungen für die Ableitung von biodiversitätsrelevanter Information. Diese Dissertation beschäftigt sich mit der Analyse von ALS-Punktwolken hinsichtlich verschiedener Aspekte der landschaftsökologischen Datenerfassung. Sie gibt eine kurze Einleitung zum Raumkonzept und der Wichtigkeit von Struktur in der Landschaftsökologie. Weiters beschreibt sie überblicksartig den Ablauf der N 2000 - konformen Erfassung von Landschaften innerhalb der EU. Vor dem Hintergrund zweier aktueller Forschungsprojekte, welche ebenfalls kurz erläutert und deren Ziele dargelegt werden, werden drei Anwendungen von ALS - Daten und darauf basierende Methoden präsentiert. Jede einzelne davon konzentriert sich auf die Ableitung von Vegetationsstrukturparametern, um entweder direkt oder indirekt als Biodiversitätsindikator zu fungieren. Zuerst wird ein Ansatz zur Bestimmung der Vegetationsschichtung im Wald vorgestellt. Die ALS- Punktwolke wird auf ihre Eignung hin untersucht, die vertikale Stratifizierung von Vegetation entsprechend darzustellen. Weiters wird eine Methode implementiert, die es ermöglicht, die Anzahl der vorhandenen Vegetationsschichten auf der Basis der Menge und Anordnung an ALS-Punkten zu berechnen. Zweitens wird die ALS-Punktwolke verwendet, um darin abgebildetes Totholz, entweder stehend oder liegend, zu finden. Es wird eine Methode entwickelt, welche liegende oder stehende tote Bäume in der Punktwolke lokalisiert und, sofern möglich, zusätzliche spektrale oder geometrische Parameter aus der Punktwolke ableitet, um die Bäume weiter hinsichtlich ihres Zustandes (z.B. Zersetzungsgrad) zu beschreiben. Drittens wird die ALS-Punktwolke herangezogen, um digitale Höhenmodelle in Feuchtgebieten (z.B. ufernahe Übergangszonen zwischen Wasser und Land) abzuleiten. Basierend auf investigativer Punktwolkenanalyse wird ein Konzept zur Identifikation von Echos niedrig- und kompakt-wachsender Pflanzen vorgestellt. Dieses wird anschließend verwendet, um die Punktwolke in Boden- und Nicht- Boden-Echos zu teilen und dann aus den klassifizierten Bodenechos ein digitales Geländemodell zu erstellen. Weiters werden gängige Vorgehensweisen zur Ableitung digitaler Oberflächenmodelle getestet und deren Ergebnisse verglichen, um ihre Eignung für Feuchtgebiete abschätzen zu können. Wo immer es möglich ist, werden zusätzliche spektrale und geometrische Informationen (abgesehen von den reinen Punktpositionen) aus den vorhandenen full-waveform ALS-Daten abgeleitet und in vorkommenden Klassifizierungsschritten eingesetzt. Alle präsentierten Ansätze sind automatisiert einsetzbar und eignen sich daher gut, um das Ziel einer Rationalisierung des Biodiversitätserfassungsprozesses zu erreichen.
Der kontinuierliche Verlust der biologischen Vielfalt (Biodiversität) in den natürlichen Lebensräumen der Europäischen Staaten kann als Tatsache betrachtet werden. Angesichts dieser Situation hat die Europäische Union (EU) das Rationalisieren des Erfassungsprozesses von Biodiversitätsindikatoren als eine ihrer obersten Prioritäten definiert, um einem weiteren Verlust entsprechend entgegenwirken zu können. In der Europäischen Kommission hat man sich auf zwei Konventionen geeinigt, die zum Ziel haben, vom Aussterben bedrohte Pflanzen- und Tierarten angemessen zu schützen: dies sind die Vogelschutzrichtlinie und die Fauna-Flora-Habitat-Richtlinie (kurz FFH-Richtlinie). Beide Richtlinien werden naturschutzrechtlich durch Natura 2000 (N 2000) implementiert, welches ein grenzübergreifendes Netzwerk von geschützten Lebensräumen in den Mitgliedsstaaten der EU definiert. Die Reglementierung besagt unter anderem, dass N 2000 - Gebiete in einem regulären Intervall von sechs Jahren wieder besucht und deren Biodiversität anhand von bestimmten festgelegten Indikatoren erhoben werden sollen. Bis heute stehen mehr als 13% der EU-Landfläche unter dem Schutz von N 2000. Die rechtlich verbindliche Zustandserfassung der entsprechenden Flächen, welche konventionellerweise manuell im Feld erfolgt, bedeutet einen enormen Arbeitsaufwand der kaum innerhalb der sechs-Jahres-Zyklen zu schaffen ist. Daher gibt es dringenden Bedarf an modernen, zeitsparenden und vergleichsweise kostengünstigen Methoden um einzelne Schritte in dem größtenteils manuellen Prozess zu unterstützen und, wenn möglich, sogar zu ersetzen. Fernerkundung (FE) ist eine effiziente Erfassungsmethode, die sehr gut dazu geeignet ist, um Daten über große Flächen in hoher zeitlicher, spektraler und räumlicher Auflösung zu erheben. Airborne laser scanning (ALS), eine relativ junge FE-Technologie, ist bekannt dafür, sehr genaue und detaillierte Aufnahmen natürlicher Lebensräume zu ermöglichen. Es besitzt die Eigenschaft, Vegetation durch kleine Lücken in der Belaubung zu durchdringen und so deren vertikale Anordnung und Struktur, sowie die darunter liegende Topographie in 3D zu erfassen. Dies sind zwei wichtige Voraussetzungen für die Ableitung von biodiversitätsrelevanter Information. Diese Dissertation beschäftigt sich mit der Analyse von ALS-Punktwolken hinsichtlich verschiedener Aspekte der landschaftsökologischen Datenerfassung. Sie gibt eine kurze Einleitung zum Raumkonzept und der Wichtigkeit von Struktur in der Landschaftsökologie. Weiters beschreibt sie überblicksartig den Ablauf der N 2000 - konformen Erfassung von Landschaften innerhalb der EU. Vor dem Hintergrund zweier aktueller Forschungsprojekte, welche ebenfalls kurz erläutert und deren Ziele dargelegt werden, werden drei Anwendungen von ALS - Daten und darauf basierende Methoden präsentiert. Jede einzelne davon konzentriert sich auf die Ableitung von Vegetationsstrukturparametern, um entweder direkt oder indirekt als Biodiversitätsindikator zu fungieren. Zuerst wird ein Ansatz zur Bestimmung der Vegetationsschichtung im Wald vorgestellt. Die ALS- Punktwolke wird auf ihre Eignung hin untersucht, die vertikale Stratifizierung von Vegetation entsprechend darzustellen. Weiters wird eine Methode implementiert, die es ermöglicht, die Anzahl der vorhandenen Vegetationsschichten auf der Basis der Menge und Anordnung an ALS-Punkten zu berechnen. Zweitens wird die ALS-Punktwolke verwendet, um darin abgebildetes Totholz, entweder stehend oder liegend, zu finden. Es wird eine Methode entwickelt, welche liegende oder stehende tote Bäume in der Punktwolke lokalisiert und, sofern möglich, zusätzliche spektrale oder geometrische Parameter aus der Punktwolke ableitet, um die Bäume weiter hinsichtlich ihres Zustandes (z.B. Zersetzungsgrad) zu beschreiben. Drittens wird die ALS-Punktwolke herangezogen, um digitale Höhenmodelle in Feuchtgebieten (z.B. ufernahe Übergangszonen zwischen Wasser und Land) abzuleiten. Basierend auf investigativer Punktwolkenanalyse wird ein Konzept zur Identifikation von Echos niedrig- und kompakt-wachsender Pflanzen vorgestellt. Dieses wird anschließend verwendet, um die Punktwolke in Boden- und Nicht- Boden-Echos zu teilen und dann aus den klassifizierten Bodenechos ein digitales Geländemodell zu erstellen. Weiters werden gängige Vorgehensweisen zur Ableitung digitaler Oberflächenmodelle getestet und deren Ergebnisse verglichen, um ihre Eignung für Feuchtgebiete abschätzen zu können. Wo immer es möglich ist, werden zusätzliche spektrale und geometrische Informationen (abgesehen von den reinen Punktpositionen) aus den vorhandenen full-waveform ALS-Daten abgeleitet und in vorkommenden Klassifizierungsschritten eingesetzt. Alle präsentierten Ansätze sind automatisiert einsetzbar und eignen sich daher gut, um das Ziel einer Rationalisierung des Biodiversitätserfassungsprozesses zu erreichen.
Backscatter Signal Analysis of Small-Footprint Full-Waveform Lidar Data
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2014
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Prof. Dr.-Ing. Uwe Stilla
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Prof. Dr.-Ing. Uwe Stilla
Kurzfassung/Abstract
Dreidimensionale topographische Information für ausgedehnte Gebiete in hoher räumlicher Auflösung erreicht ein ständig steigendes Interesse in verschiedenen wissenschaftlichen Disziplinen und Anwendungsgebieten. Eine bedeutende Rolle kommt der direkt gewonnenen 3D-Information zu. Dieser Begriff bezieht sich auf die direkte Bestimmung von polaren 3D-Koordinaten, von denen eine die Entfernung zwischen Sensor und Objektoberfläche ist. Diese Dissertation beschäftigt sich mit einer Datenerfassungsmethode, die sowohl eine genaue Entfernungsbestimmung wie auch die Ableitung physikalischer Objektattribute erlaubt; dies wird durch die Aufzeichnung einer abgetasteten Wellenform eines ausgesandten Laserpulses und seiner Echos ermöglicht, die von einer gescannten Oberfläche stammen. Diese Methode wird daher Full-Waveform-Laserscanning oder auch Full-Waveform-Lidar genannt. Mathematisch betrachtet ergibt sich das Echosignal im Wesentlichen aus einer Faltung, d.h. aus einem gleitenden Integral der Wellenform des ausgesandten Laserpulses multipliziert mit einer charakteristischen Funktion der vom Laserstrahl beleuchteten Objektoberfläche. Diese Funktion wird differentieller Rückstreuquerschnitt genannt und mit 0(R) bezeichnet; seine Einheit ist m. Die Rekonstruktion des differentiellen Rückstreuquerschnittes mit Hilfe einer Rückfaltung bildet einen wesentlichen Teil dieser Arbeit, wobei eine Rückfaltungsmethode auf der Basis uniformer B-Splines besondere Berücksichtigung findet. Ist der differentielle Rückstreuquerschnitt bekannt, so können weitere physikalische Parameter der gescannten Oberfläche ermittelt werden: Integration liefert den Rückstreuquerschnitt [m2], durch Berücksichtigung der Entfernung R und des Einfallswinkels # können ein dimensionsloser Rückstreukoeffizient und, bei Vorliegen eines diffusen Reflexionsverhaltens der Oberfläche, ein Reflektivitätswert d ermittelt werden. In dieser Dissertation werden die Möglichkeiten und Grenzen der Signalverarbeitung von Full-Waveform-Daten aufgezeigt, wofür theoretische Ableitungen, simulierte und tatsächliche Scandaten zum Einsatz kommen. Die Simulationen wurden für verschiedene Oberflächengeometrien erstellt, nämlich für Ebenen, parallele Halbebenen, Kugel-, Zylinder- und sinusoidale Oberflächen. Zusätzlich wurden zwei verschiedene Leistungsdichteverteilungen im Laserstrahl untersucht; eine uniforme Verteilung, die im Nahfeld angenommmen werden kann, sowie eine gaußförmige Verteilung, die näherungsweise im Fernfeld gilt. Das Beispiel der parallelen Halbebenen erlaubt es, theoretische Grenzwerte für deren Trennbarkeit in den Full-Waveform-Signalen abzuleiten, sowohl für den differentiellen Rückstreuquerschnitt wie auch für das Echosignal. Daten aus mehreren ausgedehnten Lidar-Flugkampagnen wurden verwendet, um die Möglichkeiten der in dieser Arbeit vorgestellten Ansätze zu analysieren. Diese Datensätze ergaben übereinstimmend eine empirische Rechtfertigung dafür, jeden einzelnen ausgesandten Laserpuls in die Analyse miteinzubeziehen; sei es durch eine einfache radiometrische Korrektur mittels Amplitudennormalisierung oder aber die weitestgehende Eliminierung der Form dieses Pulses aus dem Antwortsignal durch Rückfaltung. Weiters konnte gezeigt werden, dass die Verwertung statistischer Momente aus dem zeitlichen Verlauf des differentiellen Rückstreuquerschnittes eine verbesserte Klassifizierung der gescannten Oberflächen ermöglichen könnte.
Dreidimensionale topographische Information für ausgedehnte Gebiete in hoher räumlicher Auflösung erreicht ein ständig steigendes Interesse in verschiedenen wissenschaftlichen Disziplinen und Anwendungsgebieten. Eine bedeutende Rolle kommt der direkt gewonnenen 3D-Information zu. Dieser Begriff bezieht sich auf die direkte Bestimmung von polaren 3D-Koordinaten, von denen eine die Entfernung zwischen Sensor und Objektoberfläche ist. Diese Dissertation beschäftigt sich mit einer Datenerfassungsmethode, die sowohl eine genaue Entfernungsbestimmung wie auch die Ableitung physikalischer Objektattribute erlaubt; dies wird durch die Aufzeichnung einer abgetasteten Wellenform eines ausgesandten Laserpulses und seiner Echos ermöglicht, die von einer gescannten Oberfläche stammen. Diese Methode wird daher Full-Waveform-Laserscanning oder auch Full-Waveform-Lidar genannt. Mathematisch betrachtet ergibt sich das Echosignal im Wesentlichen aus einer Faltung, d.h. aus einem gleitenden Integral der Wellenform des ausgesandten Laserpulses multipliziert mit einer charakteristischen Funktion der vom Laserstrahl beleuchteten Objektoberfläche. Diese Funktion wird differentieller Rückstreuquerschnitt genannt und mit 0(R) bezeichnet; seine Einheit ist m. Die Rekonstruktion des differentiellen Rückstreuquerschnittes mit Hilfe einer Rückfaltung bildet einen wesentlichen Teil dieser Arbeit, wobei eine Rückfaltungsmethode auf der Basis uniformer B-Splines besondere Berücksichtigung findet. Ist der differentielle Rückstreuquerschnitt bekannt, so können weitere physikalische Parameter der gescannten Oberfläche ermittelt werden: Integration liefert den Rückstreuquerschnitt [m2], durch Berücksichtigung der Entfernung R und des Einfallswinkels # können ein dimensionsloser Rückstreukoeffizient und, bei Vorliegen eines diffusen Reflexionsverhaltens der Oberfläche, ein Reflektivitätswert d ermittelt werden. In dieser Dissertation werden die Möglichkeiten und Grenzen der Signalverarbeitung von Full-Waveform-Daten aufgezeigt, wofür theoretische Ableitungen, simulierte und tatsächliche Scandaten zum Einsatz kommen. Die Simulationen wurden für verschiedene Oberflächengeometrien erstellt, nämlich für Ebenen, parallele Halbebenen, Kugel-, Zylinder- und sinusoidale Oberflächen. Zusätzlich wurden zwei verschiedene Leistungsdichteverteilungen im Laserstrahl untersucht; eine uniforme Verteilung, die im Nahfeld angenommmen werden kann, sowie eine gaußförmige Verteilung, die näherungsweise im Fernfeld gilt. Das Beispiel der parallelen Halbebenen erlaubt es, theoretische Grenzwerte für deren Trennbarkeit in den Full-Waveform-Signalen abzuleiten, sowohl für den differentiellen Rückstreuquerschnitt wie auch für das Echosignal. Daten aus mehreren ausgedehnten Lidar-Flugkampagnen wurden verwendet, um die Möglichkeiten der in dieser Arbeit vorgestellten Ansätze zu analysieren. Diese Datensätze ergaben übereinstimmend eine empirische Rechtfertigung dafür, jeden einzelnen ausgesandten Laserpuls in die Analyse miteinzubeziehen; sei es durch eine einfache radiometrische Korrektur mittels Amplitudennormalisierung oder aber die weitestgehende Eliminierung der Form dieses Pulses aus dem Antwortsignal durch Rückfaltung. Weiters konnte gezeigt werden, dass die Verwertung statistischer Momente aus dem zeitlichen Verlauf des differentiellen Rückstreuquerschnittes eine verbesserte Klassifizierung der gescannten Oberflächen ermöglichen könnte.
Atmosphere-induced short period variations of Earth rotation
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Die umfassende Untersuchung und exakte Beschreibung von Erdrotationsschwankungen liefert einen integralen Beitrag zur Verbesserung weltraumgestützter Messverfahren und ermöglicht in gleichem Maße Rückschlüsse auf die zugrundeliegenden dynamischen Prozesse und Wechselwirkungen im System Erde. Ein schwacher aber dennoch messbarer Effekt in den Erdrotationsparametern (ERP) lässt sich thermischen Gezeiten in der Atmosphäre mit täglicher und halbtäglicher Frequenz zuordnen, jedoch herrscht zwischen entsprechenden quantitativen Abschätzungen deutliche Dissonanz. Die vorliegende Studie verfolgt eine Behebung dieses Defizits in der Interpretation geodätischer Weltraumbeobachtungen durch eine eingehende Analyse der aus Atmosphärenmodellen abgeleiteten, kurzperiodischen Anregungsgrößen, wobei besonderes Augenmerk auf deren Zuverlässigkeit gelegt wird. Auf Basis von meteorologischen Daten dreier modernster Assimilationssysteme werden sämtliche Komponenten der zwei verfügbaren Modellierungsansätze über atmosphärische Drehimpulsvariationen (AAM, Atmospheric Angular Momentum) bzw. atmosphärische Drehmomente einer Verifikation unterzogen. Als zentrale Instrumente dienen zu diesem Zweck ein erstmaliger Nachweis der Drehimpulsbilanz auf subtäglichen Zeitskalen, ein modellübergreifender Vergleich hinsichtlich jeder Anregungsgröße sowie eine eigens konzipierte Gegenüberstellung zu verlässlichen AAM-Variationen basierend auf global verteilten Barometermessungen. Eine umfassende Verbesserung in den numerischen Resultaten dieser Untersuchungen gegenüber Vorgängerstudien stellt ein Kernresultat der Arbeit dar. Insbesondere gehen die allgemein weniger anerkannten Drehmomentgrößen als zuverlässige Maße zur Prädiktion von kurzperiodischen ERP-Signalen hervor, während konventionelle AAM-Komponenten zum Teil verworfen werden müssen. Die angestellten Validitätsanalysen erlauben eine plausible Argumentation in Hinblick auf das residuale Budget von beobachteten ERP, innerhalb dessen eine bislang unerreichte Übereinstimmung zwischen geodätischen Beobachtungen und geophysikalischen Modellgrößen für die tägliche Signalkomponente von Tageslängenschwankungen nachgewiesen werden kann.
Die umfassende Untersuchung und exakte Beschreibung von Erdrotationsschwankungen liefert einen integralen Beitrag zur Verbesserung weltraumgestützter Messverfahren und ermöglicht in gleichem Maße Rückschlüsse auf die zugrundeliegenden dynamischen Prozesse und Wechselwirkungen im System Erde. Ein schwacher aber dennoch messbarer Effekt in den Erdrotationsparametern (ERP) lässt sich thermischen Gezeiten in der Atmosphäre mit täglicher und halbtäglicher Frequenz zuordnen, jedoch herrscht zwischen entsprechenden quantitativen Abschätzungen deutliche Dissonanz. Die vorliegende Studie verfolgt eine Behebung dieses Defizits in der Interpretation geodätischer Weltraumbeobachtungen durch eine eingehende Analyse der aus Atmosphärenmodellen abgeleiteten, kurzperiodischen Anregungsgrößen, wobei besonderes Augenmerk auf deren Zuverlässigkeit gelegt wird. Auf Basis von meteorologischen Daten dreier modernster Assimilationssysteme werden sämtliche Komponenten der zwei verfügbaren Modellierungsansätze über atmosphärische Drehimpulsvariationen (AAM, Atmospheric Angular Momentum) bzw. atmosphärische Drehmomente einer Verifikation unterzogen. Als zentrale Instrumente dienen zu diesem Zweck ein erstmaliger Nachweis der Drehimpulsbilanz auf subtäglichen Zeitskalen, ein modellübergreifender Vergleich hinsichtlich jeder Anregungsgröße sowie eine eigens konzipierte Gegenüberstellung zu verlässlichen AAM-Variationen basierend auf global verteilten Barometermessungen. Eine umfassende Verbesserung in den numerischen Resultaten dieser Untersuchungen gegenüber Vorgängerstudien stellt ein Kernresultat der Arbeit dar. Insbesondere gehen die allgemein weniger anerkannten Drehmomentgrößen als zuverlässige Maße zur Prädiktion von kurzperiodischen ERP-Signalen hervor, während konventionelle AAM-Komponenten zum Teil verworfen werden müssen. Die angestellten Validitätsanalysen erlauben eine plausible Argumentation in Hinblick auf das residuale Budget von beobachteten ERP, innerhalb dessen eine bislang unerreichte Übereinstimmung zwischen geodätischen Beobachtungen und geophysikalischen Modellgrößen für die tägliche Signalkomponente von Tageslängenschwankungen nachgewiesen werden kann.
A Pragmatic Communication Model for Way-finding Instructions
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2014
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
Diese Arbeit präsentiert ein pragmatisches Agenten-basiertes Kommunikationsmodell für den Austausch von Wegbeschreibungen. Pragmatik ist in diesem Fall als linguistische Theorie zu verstehen, die Kommunikation als ein kontextabhängiges System ansieht. Das Ziel dieser Arbeit ist die Schaffung von konzeptionellen und formalen Grundlagen für das Design von neuartigen Informationssystemen, die mit Hilfe von dynamischen Interaktionsmethoden individuell anpassbare Routeninformationen bereitstellen. Routenbeschreibungen die von heutigen Informationssystemen zur Verfügung gestellt werden, unterscheiden sich von Instruktionen, die von Menschen generiert werden, in zwei wesentlichen Punkten. Zum einen, ist die Art der Information anders. Menschen produzieren hauptsächlich qualitative Instruktionen, z.B. solche bei denen Orientierungspunkte eine zentrale Rolle spielen. Computer-generierte Instruktionen hingegen basieren auf quantitativen Informationen wie Längen- oder Zeitangaben. Diese Art von Information ist für Menschen nicht intuitiv kognitiv erfassbar. Zum anderen ist die Art wie mit einem Informationssystem interagiert werden kann nicht mit der Interaktionsweise von Menschen mit anderen Menschen vergleichbar. Menschen stellen sich auf ihre Gesprächspartner ein, indem sie ein mentales Modell (auch "Theory of mind" genannt) von ihnen vorhalten, d.h., Informationen werden dynamisch und individuell generiert und adaptiert falls dies als nötig empfunden wird. Zudem kann, wenn eine übermittelte Information von einem Gesprächspartner als nicht ideal empfunden wird, dieser eine gewünschte Anpassung der vormals übermittelten Informationen signalisieren. Diese zwei Prinzipien der pragmatischen Kommunikation ("Theory of mind" und Signale) wurden in dieser Arbeit konzeptionell und formal erfasst. Das Resultat ist ein ausführbares und testbares Modell, das in der funktionalen Programmiersprache Haskell formalisiert wurde. Der Beitrag dieser Arbeit besteht darin, dass sie formale Grundlagen schafft, damit eine Form der Interaktion wie sie Menschen intuitiv durchführen, in Zukunft auch zwischen Menschen und Computern möglich wird. Das erste Kapitel spezifiziert die Problemstellung und die Hypothese. Ein Vergleich zwischen Routenbeschreibungen, die von Informationssystemen und Menschen generiert wurden, veranschaulicht das Problem. Das zweite und dritte Kapitel arbeitet die bestehende Literatur zu den Bereichen Kommunikation und Routenbeschreibungen auf. Aus dieser Recherche wird eine Theorie entwickelt, die aufzeigt, dass pragmatische Kommunikation sich der "theory of mind" und dem Austausch von Signalen zur Bedeutungsfestlegung von Konzepten bedient. Kapitel 4 definiert zuerst eine einheitliche Taxonomie von Routenbeschreibungen. Anschließend werden aus Sprachdaten Signale extrahiert, die Aufschluss über den genauen Verlauf des Gesprächs geben. Diese Signale werden systematisch erfasst und klassifiziert. Zudem findet eine detaillierte Analyse der einzelnen Gesprächsphasen statt, die aufzeigt wann und warum die extrahierten Signale auftreten. Kapitel 5 präsentiert das formale Modell, dass die Konzepte der in Kapitel 2 bis 4 entwickelten Theorie mathematisch beschreibt. Dazu wurde die funktionale Programmiersprache Haskell gewählt, die aufgrund ihrer statischen Typsicherheit und der kompakten Schreibweise eine konsistente und präzise Formulierung des zuvor konzeptuell Aufgearbeiteten ermöglicht. Das Modell ist ausführbar und produziert Resultate, die die aus den Sprachdaten gewonnenen und beobachteten Ergebnisse bestätigten. Kapitel 6 schließt diese Arbeit mit einer Zusammenfassung, einer Diskussion sowie einem Ausblick auf zukünftige Forschungsmöglichkeiten ab. Ein besonderes Augenmerk wird dabei auf die nicht-verbale Kommunikation gelegt, auf der ein Großteil unserer "Gespräche" basieren.
Diese Arbeit präsentiert ein pragmatisches Agenten-basiertes Kommunikationsmodell für den Austausch von Wegbeschreibungen. Pragmatik ist in diesem Fall als linguistische Theorie zu verstehen, die Kommunikation als ein kontextabhängiges System ansieht. Das Ziel dieser Arbeit ist die Schaffung von konzeptionellen und formalen Grundlagen für das Design von neuartigen Informationssystemen, die mit Hilfe von dynamischen Interaktionsmethoden individuell anpassbare Routeninformationen bereitstellen. Routenbeschreibungen die von heutigen Informationssystemen zur Verfügung gestellt werden, unterscheiden sich von Instruktionen, die von Menschen generiert werden, in zwei wesentlichen Punkten. Zum einen, ist die Art der Information anders. Menschen produzieren hauptsächlich qualitative Instruktionen, z.B. solche bei denen Orientierungspunkte eine zentrale Rolle spielen. Computer-generierte Instruktionen hingegen basieren auf quantitativen Informationen wie Längen- oder Zeitangaben. Diese Art von Information ist für Menschen nicht intuitiv kognitiv erfassbar. Zum anderen ist die Art wie mit einem Informationssystem interagiert werden kann nicht mit der Interaktionsweise von Menschen mit anderen Menschen vergleichbar. Menschen stellen sich auf ihre Gesprächspartner ein, indem sie ein mentales Modell (auch "Theory of mind" genannt) von ihnen vorhalten, d.h., Informationen werden dynamisch und individuell generiert und adaptiert falls dies als nötig empfunden wird. Zudem kann, wenn eine übermittelte Information von einem Gesprächspartner als nicht ideal empfunden wird, dieser eine gewünschte Anpassung der vormals übermittelten Informationen signalisieren. Diese zwei Prinzipien der pragmatischen Kommunikation ("Theory of mind" und Signale) wurden in dieser Arbeit konzeptionell und formal erfasst. Das Resultat ist ein ausführbares und testbares Modell, das in der funktionalen Programmiersprache Haskell formalisiert wurde. Der Beitrag dieser Arbeit besteht darin, dass sie formale Grundlagen schafft, damit eine Form der Interaktion wie sie Menschen intuitiv durchführen, in Zukunft auch zwischen Menschen und Computern möglich wird. Das erste Kapitel spezifiziert die Problemstellung und die Hypothese. Ein Vergleich zwischen Routenbeschreibungen, die von Informationssystemen und Menschen generiert wurden, veranschaulicht das Problem. Das zweite und dritte Kapitel arbeitet die bestehende Literatur zu den Bereichen Kommunikation und Routenbeschreibungen auf. Aus dieser Recherche wird eine Theorie entwickelt, die aufzeigt, dass pragmatische Kommunikation sich der "theory of mind" und dem Austausch von Signalen zur Bedeutungsfestlegung von Konzepten bedient. Kapitel 4 definiert zuerst eine einheitliche Taxonomie von Routenbeschreibungen. Anschließend werden aus Sprachdaten Signale extrahiert, die Aufschluss über den genauen Verlauf des Gesprächs geben. Diese Signale werden systematisch erfasst und klassifiziert. Zudem findet eine detaillierte Analyse der einzelnen Gesprächsphasen statt, die aufzeigt wann und warum die extrahierten Signale auftreten. Kapitel 5 präsentiert das formale Modell, dass die Konzepte der in Kapitel 2 bis 4 entwickelten Theorie mathematisch beschreibt. Dazu wurde die funktionale Programmiersprache Haskell gewählt, die aufgrund ihrer statischen Typsicherheit und der kompakten Schreibweise eine konsistente und präzise Formulierung des zuvor konzeptuell Aufgearbeiteten ermöglicht. Das Modell ist ausführbar und produziert Resultate, die die aus den Sprachdaten gewonnenen und beobachteten Ergebnisse bestätigten. Kapitel 6 schließt diese Arbeit mit einer Zusammenfassung, einer Diskussion sowie einem Ausblick auf zukünftige Forschungsmöglichkeiten ab. Ein besonderes Augenmerk wird dabei auf die nicht-verbale Kommunikation gelegt, auf der ein Großteil unserer "Gespräche" basieren.
Seamless Route Planning for Freight Transport by Integration of Real Time Traffic Data
Studiengang Intelligent Transportation Systems, Fachhochschule Technikum Wien, 2014
Betreuer: Mag. Dr. Gerhard Schilk, Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Betreuer: Mag. Dr. Gerhard Schilk, Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
The purpose of this thesis is to explore the complexities behind route planning in a multimodal network and define how route planning could be more accurate with real time traffic data.
This research is about getting suitable data for route planning and how tools analyze it. Also that is dealing with finding out how it would be possible to optimize the route planning by analyzing real time traffic data.
The purpose of this thesis is to explore the complexities behind route planning in a multimodal network and define how route planning could be more accurate with real time traffic data.
This research is about getting suitable data for route planning and how tools analyze it. Also that is dealing with finding out how it would be possible to optimize the route planning by analyzing real time traffic data.
Development of a high temporal resolution GIS-based model for river water temperature estimation
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2014
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Goals:
In this master thesis the 21st of June and the 21st of December 2012 are chosen for visualization of an hourly based and daily average temperature profile in the study area, involving a comparison with the measurement station in Gumisch, which is at the end of the study area. This visualization outlines how the water temperature behaves on a summer day during summer solstice, and on a winter day during winter solstice in the year 2012. The next result focuses only on the river water temperature at the end of the study area, highlighting the differences between the calculated and measured water temperature at the measurement station Gumisch on a daily basis for the months June and December. Furthermore, a monthly based comparison is presented, where the calculated and measured monthly mean values are compared for the year 2012. For the results gained from the daily, monthly and yearly timescale, a statistical model validation is applied, showing the results for RMSE, MAE, NSC and Pearson's r. These validation methods outline how suitable the calculated results fit to the measured water temperature values for different aggregated timescales.
The main conclusion that can be stated after the realization of this master thesis is that a precise estimation of river water temperature for a specific point in the river is aggravated by the dynamic river water temperature behavior within the rivers. Hereby, different circumstances, such as the constantly changing riverbed, flow regime and flow velocity within the river make it difficult to calculate the precise water temperature at a specific point in the river. Therefore, a high temporal resolution GIS-based model for river water temperature estimation is implemented in this master thesis to provide an approach for the calculation of accurate river water temperature.
Goals:
- The implementation of the already existing model to another study area and its modification from a monthly mean to an hourly basis involves an optimization of the model.
- The validation involves a comparison of the hourly based calculated data along the river with the measured data by using statistically significant values that show the feasibility of the model like the Root Mean Square Error, Nash and Sutcliffe Coefficient, Mean Absolute Error and Pearson's r.
- The visualization of the comparison between the measured temperature values and the results of the implementation of the optimized model.
- A concept for a sensor network that can measure river water temperature in the study area at the river Gurk, stating an optimal and a realistic scenario for the installation of the sensors.
In this master thesis the 21st of June and the 21st of December 2012 are chosen for visualization of an hourly based and daily average temperature profile in the study area, involving a comparison with the measurement station in Gumisch, which is at the end of the study area. This visualization outlines how the water temperature behaves on a summer day during summer solstice, and on a winter day during winter solstice in the year 2012. The next result focuses only on the river water temperature at the end of the study area, highlighting the differences between the calculated and measured water temperature at the measurement station Gumisch on a daily basis for the months June and December. Furthermore, a monthly based comparison is presented, where the calculated and measured monthly mean values are compared for the year 2012. For the results gained from the daily, monthly and yearly timescale, a statistical model validation is applied, showing the results for RMSE, MAE, NSC and Pearson's r. These validation methods outline how suitable the calculated results fit to the measured water temperature values for different aggregated timescales.
The main conclusion that can be stated after the realization of this master thesis is that a precise estimation of river water temperature for a specific point in the river is aggravated by the dynamic river water temperature behavior within the rivers. Hereby, different circumstances, such as the constantly changing riverbed, flow regime and flow velocity within the river make it difficult to calculate the precise water temperature at a specific point in the river. Therefore, a high temporal resolution GIS-based model for river water temperature estimation is implemented in this master thesis to provide an approach for the calculation of accurate river water temperature.
Artisanal Gold Mines in Butana (Ostsudan) - Ein hybrider Klassifikationsansatz multitemporaler ASTER- und LANDSAT-Daten unter Berücksichtigung spektraler Signaturen der Lithologie
Institut für Erdwissenschaften, Karl Franzens Universität Graz, 2014
Betreuer: Ao.Univ.-Prof. Mag. Dr. Wolfgang Sulzer
Betreuer: Ao.Univ.-Prof. Mag. Dr. Wolfgang Sulzer
Kurzfassung/Abstract
Im letzten Jahrzehnt hat sich der Goldexport des Sudan beinahe verzehnfacht. Der Großteil dieses Goldes wird in kleinen Gruben, die mit konventionellem Werkzeug im Tagebau bewirtschaftet werden, sogenannten Artisanal Mines, abgebaut. In dieser Arbeit wird versucht, diese Entwicklung mit Hilfe multitemporaler Fernerkundungsdaten in Butana, einer Halbwüstenregion im Osten des Sudans, zu dokumentieren. Darüber hinaus werden spektrale und räumliche Merkmale der Goldminen analysiert. Aus den gewonnenen Erkenntnissen wird ein semiautomatisches Modell zum Auffinden weiterer, bisher unbekannter Abbaugebiete entwickelt. Abschließend werden die Minen mit den Ergebnissen einer ASTER-gestützten, lithologischen Kartierung in Kontext gesetzt. Insgesamt werden in dieser Arbeit neun Datensätze der Satellitensensoren ASTER, LANDSAT 5 TM und LANSAT 8 OLI/TIRS verarbeitet. Der erste Teil dieser Masterarbeit thematisiert bisherige Beiträge zur Change Detection im Tagebau-Monitoring. Zunächst wird ein allgemeiner Überblick über den Stand der Forschung zu diesem Thema gegeben. Es folgen theoretische Grundlagen zu Bildvorverarbeitung und eine ausführliche Beschreibung gängiger Change Detection-Methoden in der Bergbau-Literatur. Darüber hinaus wird auf den Stellenwert der Fernerkundung für geologische Anwendungen eingegangen und häufig eingesetzte Bildverbesserungstechniken und lithologische Kartierungsmethoden vorgestellt. Im zweiten Teil der Arbeit wird zunächst das Untersuchungsgebiet näher vorgestellt. Der Schwerpunkt liegt dabei auf der tektonischen Entwicklung und den Goldlagerstätten. Der dritte Teil der Arbeit umfasst die praktischen Arbeiten im Untersuchungsgebiet. Im Fokus dabei steht vor allem der hybride pixel-objekt-basierte Ansatz zur semiautomatisierten Klassifikation der Minen. Dieser wird an einem kleineren Untersuchungsgebiet entwickelt und getestet. Anschließend wird das Modell auf ein erweitertes Gebiet übertragen und seine Genauigkeit evaluiert. Darüber hinaus werden Methoden der spektralen Change Detection und der lithologischen Kartierung mit ASTER Daten durchgeführt. Abschließend werden die Ergebnisse im Licht der gestellten Forschungsfragen diskutiert und Möglichkeiten aufgezeigt, das Modell zu verbessern. Weiters werden offengebliebene Fragen für zukünftige Arbeiten gestellt. Das Modell erzielt eine Genauigkeit von bis zu 59%. Eine höhere Genauigkeit kann aufgrund der spektralen Ähnlichkeit zu anderen Geo-Objekten mit den eingesetzten Datengrundlagen und der angewandten Methodik nicht erreicht werden. Die beobachtete, durchschnittliche Zuwachsrate der Minen im Untersuchungszeitraum beträgt 79% pro Jahr.
Im letzten Jahrzehnt hat sich der Goldexport des Sudan beinahe verzehnfacht. Der Großteil dieses Goldes wird in kleinen Gruben, die mit konventionellem Werkzeug im Tagebau bewirtschaftet werden, sogenannten Artisanal Mines, abgebaut. In dieser Arbeit wird versucht, diese Entwicklung mit Hilfe multitemporaler Fernerkundungsdaten in Butana, einer Halbwüstenregion im Osten des Sudans, zu dokumentieren. Darüber hinaus werden spektrale und räumliche Merkmale der Goldminen analysiert. Aus den gewonnenen Erkenntnissen wird ein semiautomatisches Modell zum Auffinden weiterer, bisher unbekannter Abbaugebiete entwickelt. Abschließend werden die Minen mit den Ergebnissen einer ASTER-gestützten, lithologischen Kartierung in Kontext gesetzt. Insgesamt werden in dieser Arbeit neun Datensätze der Satellitensensoren ASTER, LANDSAT 5 TM und LANSAT 8 OLI/TIRS verarbeitet. Der erste Teil dieser Masterarbeit thematisiert bisherige Beiträge zur Change Detection im Tagebau-Monitoring. Zunächst wird ein allgemeiner Überblick über den Stand der Forschung zu diesem Thema gegeben. Es folgen theoretische Grundlagen zu Bildvorverarbeitung und eine ausführliche Beschreibung gängiger Change Detection-Methoden in der Bergbau-Literatur. Darüber hinaus wird auf den Stellenwert der Fernerkundung für geologische Anwendungen eingegangen und häufig eingesetzte Bildverbesserungstechniken und lithologische Kartierungsmethoden vorgestellt. Im zweiten Teil der Arbeit wird zunächst das Untersuchungsgebiet näher vorgestellt. Der Schwerpunkt liegt dabei auf der tektonischen Entwicklung und den Goldlagerstätten. Der dritte Teil der Arbeit umfasst die praktischen Arbeiten im Untersuchungsgebiet. Im Fokus dabei steht vor allem der hybride pixel-objekt-basierte Ansatz zur semiautomatisierten Klassifikation der Minen. Dieser wird an einem kleineren Untersuchungsgebiet entwickelt und getestet. Anschließend wird das Modell auf ein erweitertes Gebiet übertragen und seine Genauigkeit evaluiert. Darüber hinaus werden Methoden der spektralen Change Detection und der lithologischen Kartierung mit ASTER Daten durchgeführt. Abschließend werden die Ergebnisse im Licht der gestellten Forschungsfragen diskutiert und Möglichkeiten aufgezeigt, das Modell zu verbessern. Weiters werden offengebliebene Fragen für zukünftige Arbeiten gestellt. Das Modell erzielt eine Genauigkeit von bis zu 59%. Eine höhere Genauigkeit kann aufgrund der spektralen Ähnlichkeit zu anderen Geo-Objekten mit den eingesetzten Datengrundlagen und der angewandten Methodik nicht erreicht werden. Die beobachtete, durchschnittliche Zuwachsrate der Minen im Untersuchungszeitraum beträgt 79% pro Jahr.
Indoor-Positionierung mit Inertialsensoren
Institut für Navigation, Technische Universität Graz, 2014
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Fußgänger halten sich einen Großteil ihrer Zeit in Innenräumen auf, wodurch konventionelle, satellitengestützte Positionierungsmethoden auf Grund von Abschattungen nicht funktionieren. Deshalb befasst sich die Forschung mit alternativen Methoden der Positionsbestimmung. Eine günstige Möglichkeit stellt die relative Positionierung mittels low-cost, inertialen Sensoren dar. Diese Möglichkeit wird für Fußgänger als Pedestrian Dead Reckoning (PDR) bezeichnet. Zur Fußgängerpositionierung werden idealerweise leichte und konventionelle Endgeräte, wie low-cost inertiale Messeinheiten (Inertial Measurement Unit - IMU), verwendet. Eine low-cost IMU beinhaltet inertiale Sensoren in Form von mikroelektromechanischen Systemen. Durch die Miniaturisierung der Sensoren entsteht ein Genauigkeitsverlust, welcher mit einem PDR-Algorithmus kompensiert werden kann, beispielsweise durch einen inertial-basierten Algorithmus oder durch einen schritt-basierten Algorithmus. Diese Untersuchungen behandeln einen schritt-basierten PDR-Algorithmus, welcher aus drei Phasen besteht: Schrittdetektion Schrittlängenschätzung Richtungsschätzung Sowohl in der Schrittdetektion als auch in der Schrittlängenschätzung wurden je drei verschiedene dem Stand der Forschung entsprechende Ansätze untersucht und getestet. In der Richtungsschätzung fand eine Kalmanfilterung von den Parametern der Lage der Messeinheit im Raum und den Drehraten statt. Zur praktischen Messung wurde eine IMU MTi-G der Firma Xsens, ein Samsung Smartphone und eine Omate Smartwatch verwendet. Es wurden verschiedene Trajektorien gemessen, wobei die Auswirkung der Position der Messeinheit an verschiedenen Stellen am Körper analysiert wurde. Außerdem wurden unterschiedliche Bewegungsformen untersucht. Die Ergebnisse zeigen auf, dass bei der Verwendung von low-cost Sensoren Trajektorien bestimmt werden können, die der Solltrajektorie für eine Dauer von über einer Minute entsprechen. Weiters wird gezeigt, dass die Detektion der Schritte über Beschleunigungsdaten, sowie auch über Gyroskopdaten für unterschiedliche Bewegungsmuster funktioniert. Zur optimalen Schrittlängenschätzung werden personenspezifische Parameter zuvor durch Testmessungen kalibriert. Auch in der Richtungsschätzung werden reproduzierbare Ergebnisse, mit Ausnahmen auf Grund der starken Abhängigkeit der magnetischen Deviationen der Baustruktur, erreicht.
Fußgänger halten sich einen Großteil ihrer Zeit in Innenräumen auf, wodurch konventionelle, satellitengestützte Positionierungsmethoden auf Grund von Abschattungen nicht funktionieren. Deshalb befasst sich die Forschung mit alternativen Methoden der Positionsbestimmung. Eine günstige Möglichkeit stellt die relative Positionierung mittels low-cost, inertialen Sensoren dar. Diese Möglichkeit wird für Fußgänger als Pedestrian Dead Reckoning (PDR) bezeichnet. Zur Fußgängerpositionierung werden idealerweise leichte und konventionelle Endgeräte, wie low-cost inertiale Messeinheiten (Inertial Measurement Unit - IMU), verwendet. Eine low-cost IMU beinhaltet inertiale Sensoren in Form von mikroelektromechanischen Systemen. Durch die Miniaturisierung der Sensoren entsteht ein Genauigkeitsverlust, welcher mit einem PDR-Algorithmus kompensiert werden kann, beispielsweise durch einen inertial-basierten Algorithmus oder durch einen schritt-basierten Algorithmus. Diese Untersuchungen behandeln einen schritt-basierten PDR-Algorithmus, welcher aus drei Phasen besteht: Schrittdetektion Schrittlängenschätzung Richtungsschätzung Sowohl in der Schrittdetektion als auch in der Schrittlängenschätzung wurden je drei verschiedene dem Stand der Forschung entsprechende Ansätze untersucht und getestet. In der Richtungsschätzung fand eine Kalmanfilterung von den Parametern der Lage der Messeinheit im Raum und den Drehraten statt. Zur praktischen Messung wurde eine IMU MTi-G der Firma Xsens, ein Samsung Smartphone und eine Omate Smartwatch verwendet. Es wurden verschiedene Trajektorien gemessen, wobei die Auswirkung der Position der Messeinheit an verschiedenen Stellen am Körper analysiert wurde. Außerdem wurden unterschiedliche Bewegungsformen untersucht. Die Ergebnisse zeigen auf, dass bei der Verwendung von low-cost Sensoren Trajektorien bestimmt werden können, die der Solltrajektorie für eine Dauer von über einer Minute entsprechen. Weiters wird gezeigt, dass die Detektion der Schritte über Beschleunigungsdaten, sowie auch über Gyroskopdaten für unterschiedliche Bewegungsmuster funktioniert. Zur optimalen Schrittlängenschätzung werden personenspezifische Parameter zuvor durch Testmessungen kalibriert. Auch in der Richtungsschätzung werden reproduzierbare Ergebnisse, mit Ausnahmen auf Grund der starken Abhängigkeit der magnetischen Deviationen der Baustruktur, erreicht.
Testing the Usability of OpenStreetMap's iD Tool
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Dr. Corné van Elzakker, Dipl.-Ing. (FH) Manuela Schmidt
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Dr. Corné van Elzakker, Dipl.-Ing. (FH) Manuela Schmidt
Kurzfassung/Abstract
OpenStreetMap (OSM) is the biggest and best-known source for open geographic information gathered by crowds of volunteer enthusiasts worldwide. With the needs for open-source geodata increasing, OSM has taken steps to increase its visibility towards potential users as well as usability of its tools for new contributors. As the ease of using OSM editors is vital to attracting a greater amount of contributing members, usability evaluations of the tools are needed in order to provide a solid and growing basis of volunteers for the project. The iD editor for OSM is one of the most recently developed tools and, being the default online editor for OSM, it is also the most used. The objective of this study is to investigate the usability of the iD editor. To this end usability tests have been conducted with users selected with the aid of an online survey. The participants were given mapping tasks to complete using iD and observed with the thinking aloud method as well as screen recording and mouse/keyboard logging. Additionally the test persons were interviewed after each test. The data gathered were analysed with regard to key usability criteria such as learnability, efficiency, error tolerance, and subjective user satisfaction. The outcome of this study is the identification of usability issues from which possible improvements of the tool have been derived. The study shows that iD is an overall usable tool for novice users, but still shows opportunities for improvement especially in terms of learnability and error handling.
OpenStreetMap (OSM) is the biggest and best-known source for open geographic information gathered by crowds of volunteer enthusiasts worldwide. With the needs for open-source geodata increasing, OSM has taken steps to increase its visibility towards potential users as well as usability of its tools for new contributors. As the ease of using OSM editors is vital to attracting a greater amount of contributing members, usability evaluations of the tools are needed in order to provide a solid and growing basis of volunteers for the project. The iD editor for OSM is one of the most recently developed tools and, being the default online editor for OSM, it is also the most used. The objective of this study is to investigate the usability of the iD editor. To this end usability tests have been conducted with users selected with the aid of an online survey. The participants were given mapping tasks to complete using iD and observed with the thinking aloud method as well as screen recording and mouse/keyboard logging. Additionally the test persons were interviewed after each test. The data gathered were analysed with regard to key usability criteria such as learnability, efficiency, error tolerance, and subjective user satisfaction. The outcome of this study is the identification of usability issues from which possible improvements of the tool have been derived. The study shows that iD is an overall usable tool for novice users, but still shows opportunities for improvement especially in terms of learnability and error handling.
Speicherung von E-Mail Daten in einer dokumentbasierten Datenbank
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
Die Aufbewahrung von E-Mail Daten wird in vielen Fällen über Dateisystem-basierende Formate realisiert. Diese Formate erlauben eine hierarchische Gliederung der E-Mail Nachrichten, aber nur sehr eingeschränkte Möglichkeiten, die Nachrichten nach gewissen Gesichtspunkten zu organisieren. Einige Datenbank-basierende Methoden existieren, weisen jedoch den Nachteil auf, proprietär zu sein und keine offenen Schnittstellen anzubieten. Damit gilt für Datenbank- sowie auch Dateisystem-basierende Formate, dass diese nur schwer in Informationssysteme integrierbar sind.
Neue Möglichkeiten E-Mail-Daten effizient zu speichern werden durch dokumentbasierte Datenbanken eröffnet. Im Gegensatz zu relationalen Datenbanken speichern dokumentbasierte Datenbankmanagementsysteme Daten in Form von Dokumenten, welche keinem festen Schema unterliegen müssen. In den letzten Jahren ist die Nutzung dieser dokumentbasierten Datenbanken erheblich gestiegen. Dennoch findet man, neben der Groupware Lotus Notes, keine weiteren Anwendungen die sich die Vorteile dieser Datenbanken bei der Aufbewahrung von E-Mail Daten zunutze machen.
In meiner Diplomarbeit analysiere und vergleiche ich verschiedene Speicherungsarten von E-Mail Daten, um minimale Anforderungen an ein Mail-speicherndes System zu erheben. Weiters untersuche ich Eigenschaften und interne Strukturen des dokumentbasierten Datenbankmanagementsystems Apache CouchDB und deren Einsatz als Persistierungskomponente für E-Mail Daten.
Für die Realisierung und Überprüfung dieser Konzepte wurde ein Prototyp in der funktionalen Programmiersprache Haskell programmiert. Der Prototyp ist ein MIME-konformer Mail Client mit grafischer Benutzeroberfläche und speichert E-Mail Daten in der Apache CouchDB. Der Client zeigt gespeicherte E-Mail Nachrichten an und ermöglicht eine Suche nach bestimmten Merkmalen. Transformatoren für übliche Formate ermöglichen den Import aus bestehenden Mail-Archiven und erlauben es neue E-Mail Nachrichten über das Transportprotokoll POP3 von Mailservern zu holen.
Die Aufbewahrung von E-Mail Daten wird in vielen Fällen über Dateisystem-basierende Formate realisiert. Diese Formate erlauben eine hierarchische Gliederung der E-Mail Nachrichten, aber nur sehr eingeschränkte Möglichkeiten, die Nachrichten nach gewissen Gesichtspunkten zu organisieren. Einige Datenbank-basierende Methoden existieren, weisen jedoch den Nachteil auf, proprietär zu sein und keine offenen Schnittstellen anzubieten. Damit gilt für Datenbank- sowie auch Dateisystem-basierende Formate, dass diese nur schwer in Informationssysteme integrierbar sind.
Neue Möglichkeiten E-Mail-Daten effizient zu speichern werden durch dokumentbasierte Datenbanken eröffnet. Im Gegensatz zu relationalen Datenbanken speichern dokumentbasierte Datenbankmanagementsysteme Daten in Form von Dokumenten, welche keinem festen Schema unterliegen müssen. In den letzten Jahren ist die Nutzung dieser dokumentbasierten Datenbanken erheblich gestiegen. Dennoch findet man, neben der Groupware Lotus Notes, keine weiteren Anwendungen die sich die Vorteile dieser Datenbanken bei der Aufbewahrung von E-Mail Daten zunutze machen.
In meiner Diplomarbeit analysiere und vergleiche ich verschiedene Speicherungsarten von E-Mail Daten, um minimale Anforderungen an ein Mail-speicherndes System zu erheben. Weiters untersuche ich Eigenschaften und interne Strukturen des dokumentbasierten Datenbankmanagementsystems Apache CouchDB und deren Einsatz als Persistierungskomponente für E-Mail Daten.
Für die Realisierung und Überprüfung dieser Konzepte wurde ein Prototyp in der funktionalen Programmiersprache Haskell programmiert. Der Prototyp ist ein MIME-konformer Mail Client mit grafischer Benutzeroberfläche und speichert E-Mail Daten in der Apache CouchDB. Der Client zeigt gespeicherte E-Mail Nachrichten an und ermöglicht eine Suche nach bestimmten Merkmalen. Transformatoren für übliche Formate ermöglichen den Import aus bestehenden Mail-Archiven und erlauben es neue E-Mail Nachrichten über das Transportprotokoll POP3 von Mailservern zu holen.
Aneignung räumlichen Wissens durch aktive Auseinandersetzung mit Landmarks in einem Location-based Game
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Dipl.-Ing. (FH) Manuela Schmidt
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Dipl.-Ing. (FH) Manuela Schmidt
Kurzfassung/Abstract
Navigationssysteme wurden bislang ausschließlich zum Nutzen der effektiven Ausführung von Routenanweisungen designt. Der Aspekt der räumlichen Wissensaneignung spielte bis dato bei der Gestaltung von Navigationssystemen keine herausragende Rolle. Dadurch wird der Erwerb räumlichen Wissens bei Verwendung heutiger elektronischer Navigationsgeräte mit automatischer Positionsbestimmung im Vergleich etwa zu Papierkarten (oder nicht-selbstverortenden Navigationssystemen) weniger unterstützt. Der Grund dafür ist ein Mangel an aktiver Kodierung von räumlicher Information. Die empirische Untersuchung soll Aufschlüsse darüber geben, ob die Benutzer durch aktive Auseinandersetzung mit der Umgebung, im speziellen mit Landmarks - im Rahmen eines Location-based Games (LBG), einer Art "Schnitzeljagd" - mehr räumliches Wissen als mit herkömmlichen Fußgängernavigationssystemen erwerben. Die Ergebnisse zeigen, dass der räumliche Wissenserwerb beim Location-based Gaming besser unterstützt wird. Die Benutzer wiesen (bei den Beurteilungsaufgaben) nach der LBG-Navigationsmethode sowohl mehr Landmarkwissen als auch mehr Routenwissen vor als beim klassischen Navigationssystem. Diese Beobachtungen werden mit der aktiven Auseinandersetzung, durch das Prinzip der aktiven Kodierung, erklärt. Räumliche Information muss für das Erlangen von Wissen kodiert, transformiert und abgespeichert werden. Wie mit Papierkarten kann das auch bei Location-based Games erreicht werden. Um einerseits nicht auf die komfortable Routenplanung durch Satelliten-gestützte Navigationssysteme zu verzichten und andererseits auch räumliches Wissen während der Navigation zu erwerben, können Fußgängernavigationsysteme in Anlehnung an das Konzept des Location-based Gamings entwickelt werden.
Navigationssysteme wurden bislang ausschließlich zum Nutzen der effektiven Ausführung von Routenanweisungen designt. Der Aspekt der räumlichen Wissensaneignung spielte bis dato bei der Gestaltung von Navigationssystemen keine herausragende Rolle. Dadurch wird der Erwerb räumlichen Wissens bei Verwendung heutiger elektronischer Navigationsgeräte mit automatischer Positionsbestimmung im Vergleich etwa zu Papierkarten (oder nicht-selbstverortenden Navigationssystemen) weniger unterstützt. Der Grund dafür ist ein Mangel an aktiver Kodierung von räumlicher Information. Die empirische Untersuchung soll Aufschlüsse darüber geben, ob die Benutzer durch aktive Auseinandersetzung mit der Umgebung, im speziellen mit Landmarks - im Rahmen eines Location-based Games (LBG), einer Art "Schnitzeljagd" - mehr räumliches Wissen als mit herkömmlichen Fußgängernavigationssystemen erwerben. Die Ergebnisse zeigen, dass der räumliche Wissenserwerb beim Location-based Gaming besser unterstützt wird. Die Benutzer wiesen (bei den Beurteilungsaufgaben) nach der LBG-Navigationsmethode sowohl mehr Landmarkwissen als auch mehr Routenwissen vor als beim klassischen Navigationssystem. Diese Beobachtungen werden mit der aktiven Auseinandersetzung, durch das Prinzip der aktiven Kodierung, erklärt. Räumliche Information muss für das Erlangen von Wissen kodiert, transformiert und abgespeichert werden. Wie mit Papierkarten kann das auch bei Location-based Games erreicht werden. Um einerseits nicht auf die komfortable Routenplanung durch Satelliten-gestützte Navigationssysteme zu verzichten und andererseits auch räumliches Wissen während der Navigation zu erwerben, können Fußgängernavigationsysteme in Anlehnung an das Konzept des Location-based Gamings entwickelt werden.
An Assessment of the Solar Potential of Roofs within a Web-based Solar Cadastre
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner mit EURAC, Italy
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner mit EURAC, Italy
Kurzfassung/Abstract
In the last decade the energy issue became a crucial component of ecologically and economically sustainable urban development. The conventional energy sources such as oil, gas and coal are tending to decrease, whereas the renewable energy sources such as solar energy, wind power, hydropower, biofuel, biomass and geothermal energy are making a great contribution into producing electric energy, domestic hot water, heating and motor fuels. Moreover, solar technologies are quite mature already and offer a variety of technical solutions for on-site energy generation. Along with clean and sustainable energy production photovoltaic systems could be installed for a reasonable cost, therefore, their use is growing and private users as well as local authorities demonstrate wide interest in identifying areas suitable for mounting the solar modules. Based on LIDAR (Light Detection and Ranging), a remote sensing technology, precise surface and terrain models can be constructed for evaluation of solar radiation distribution and shadowing at each location. Furthermore, for photovoltaic potential estimations it is necessary to include the information about ambient temperature and parameters of the considered photovoltaic technologies. To proceed with this assignment, the information should be merged and visualized in a convenient way for the end user, which is not trivial. The proposed solution includes development of the WebGIS Solar Tirol application, a state-of-the-art technology, which offers immediate access to the information about irradiance distribution, electrical energy, emission savings and photovoltaic output on building roofs within a single environment. Moreover, the approach doesn't require the installation of additional software and uses open-source, data standards and APIs. The tool is implemented in a three layer architecture: user interface, application server and spatial database. Therefore, the contribution of the research includes an integration of the methodology for the solar potential estimations into the Web environment. Moreover, the WebGIS Solar Tirol is developed within an existing SDI that provides easy access for collaboration and distribution of solar potential data. The objective of the application is to increase environmental awareness among the residents and provide private users and authorities with comprehensive information for the planning and installation of the solar power systems within an intuitive environment. The results represent a preliminary assessment of solar potential characteristics that can be used to support management decisions regarding investments in the solar systems. The research is applied to the study area in the Autonomous Province of Bolzano (Alto Adige / Südtirol), Northern Italy. The region of South Tyrol has great potential for developing solar energy due to a favorable geographic location, political measures and economic instruments designed to improve the energy efficiency. The combination of cool temperatures and large amounts of solar radiation provides ideal conditions for the solar power systems. However, the complex mountain landscape makes an assessment of solar potential challenging.
In the last decade the energy issue became a crucial component of ecologically and economically sustainable urban development. The conventional energy sources such as oil, gas and coal are tending to decrease, whereas the renewable energy sources such as solar energy, wind power, hydropower, biofuel, biomass and geothermal energy are making a great contribution into producing electric energy, domestic hot water, heating and motor fuels. Moreover, solar technologies are quite mature already and offer a variety of technical solutions for on-site energy generation. Along with clean and sustainable energy production photovoltaic systems could be installed for a reasonable cost, therefore, their use is growing and private users as well as local authorities demonstrate wide interest in identifying areas suitable for mounting the solar modules. Based on LIDAR (Light Detection and Ranging), a remote sensing technology, precise surface and terrain models can be constructed for evaluation of solar radiation distribution and shadowing at each location. Furthermore, for photovoltaic potential estimations it is necessary to include the information about ambient temperature and parameters of the considered photovoltaic technologies. To proceed with this assignment, the information should be merged and visualized in a convenient way for the end user, which is not trivial. The proposed solution includes development of the WebGIS Solar Tirol application, a state-of-the-art technology, which offers immediate access to the information about irradiance distribution, electrical energy, emission savings and photovoltaic output on building roofs within a single environment. Moreover, the approach doesn't require the installation of additional software and uses open-source, data standards and APIs. The tool is implemented in a three layer architecture: user interface, application server and spatial database. Therefore, the contribution of the research includes an integration of the methodology for the solar potential estimations into the Web environment. Moreover, the WebGIS Solar Tirol is developed within an existing SDI that provides easy access for collaboration and distribution of solar potential data. The objective of the application is to increase environmental awareness among the residents and provide private users and authorities with comprehensive information for the planning and installation of the solar power systems within an intuitive environment. The results represent a preliminary assessment of solar potential characteristics that can be used to support management decisions regarding investments in the solar systems. The research is applied to the study area in the Autonomous Province of Bolzano (Alto Adige / Südtirol), Northern Italy. The region of South Tyrol has great potential for developing solar energy due to a favorable geographic location, political measures and economic instruments designed to improve the energy efficiency. The combination of cool temperatures and large amounts of solar radiation provides ideal conditions for the solar power systems. However, the complex mountain landscape makes an assessment of solar potential challenging.
Fassadenrekonstruktion - Vergleich von automatisierter Auswertung aus TLS und manueller Auswertung aus Bilddaten
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Peter Dorninger, Dipl.-Ing. Philipp Glira
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Peter Dorninger, Dipl.-Ing. Philipp Glira
Kurzfassung/Abstract
Oft ist es notwendig, Fassaden von Häusern zu erfassen und diese dann digital auszuwerten. Etwa zur Dokumentation oder Restaurierung Denkmalgeschützter Gebäude, Einbindung in Internetseiten, für Tourismus oder ähnliches. So unterschiedlich wie das Ergebnis sein kann, sind auch die Methoden die zur Anwendung kommen. Aufnahmeverfahren sind im einfachsten Fall mit Maßbändern und Bleistift, eher aber Photogrammetrisch, oder per Laserscanner. Die letzteren beiden sind berührungslose Verfahren, die es ermöglichen, unterschiedliche Modelle der Fassaden in verschiedener Genauigkeit zu erstellen. Entscheidend dabei sind einerseits die Qualität der Geräte und Positionierung bei der Aufnahme, andererseits die zur Auswertung der Daten angewandten Methoden. Im Rahmen dieser Diplomarbeit werden drei Methoden vorgestellt, die nur Photogrammetrisch, rein basierend auf 3D Laserscanpunktwolken, oder auf beide Verfahren zurückgreifen. Diese Verfahren mit unterschiedlicher Automatisierung und Aufwand zur Erstellung eines Strichplanes der Ostfassade von Schloss Schönbrunn in Wien werden in dieser Diplomarbeit näher erläutert und miteinander verglichen. Wie es bei öffentlichen Ausschreibungen zur Erhaltung bzw. Darstellung von Gebäuden üblich ist, gelten die in Österreich gebräuchlichen ÖNORMen. Im letzten Schritt der Diplomarbeit wird eingegangen auf übliche Genauigkeitsanforderungen bei Ausschreibungen, und ob diese mit den vorgestellten Auswertemethoden realistisch erreichbar sind.
Oft ist es notwendig, Fassaden von Häusern zu erfassen und diese dann digital auszuwerten. Etwa zur Dokumentation oder Restaurierung Denkmalgeschützter Gebäude, Einbindung in Internetseiten, für Tourismus oder ähnliches. So unterschiedlich wie das Ergebnis sein kann, sind auch die Methoden die zur Anwendung kommen. Aufnahmeverfahren sind im einfachsten Fall mit Maßbändern und Bleistift, eher aber Photogrammetrisch, oder per Laserscanner. Die letzteren beiden sind berührungslose Verfahren, die es ermöglichen, unterschiedliche Modelle der Fassaden in verschiedener Genauigkeit zu erstellen. Entscheidend dabei sind einerseits die Qualität der Geräte und Positionierung bei der Aufnahme, andererseits die zur Auswertung der Daten angewandten Methoden. Im Rahmen dieser Diplomarbeit werden drei Methoden vorgestellt, die nur Photogrammetrisch, rein basierend auf 3D Laserscanpunktwolken, oder auf beide Verfahren zurückgreifen. Diese Verfahren mit unterschiedlicher Automatisierung und Aufwand zur Erstellung eines Strichplanes der Ostfassade von Schloss Schönbrunn in Wien werden in dieser Diplomarbeit näher erläutert und miteinander verglichen. Wie es bei öffentlichen Ausschreibungen zur Erhaltung bzw. Darstellung von Gebäuden üblich ist, gelten die in Österreich gebräuchlichen ÖNORMen. Im letzten Schritt der Diplomarbeit wird eingegangen auf übliche Genauigkeitsanforderungen bei Ausschreibungen, und ob diese mit den vorgestellten Auswertemethoden realistisch erreichbar sind.
Extraction of geometric objects from TLS pointclouds of historical facades
Institut für Rechnergestützte Automation, Technische Universität Wien, 2013
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Sablatnig, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Camillo Ressl
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Sablatnig, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Camillo Ressl
Kurzfassung/Abstract
Terrestrisches Laser Scanning (TLS) ist ein berührungsloses 3d-Datenerfassungssystem, welches z.B. in der Geomatik oder dem Denkmal- und Kulturgüterschutz verwendet wird. Abhängig vom Prinzip der Distanzmessung können Reichweiten bis zu 4000 m (RIEGL VZ-4000) oder Messraten von 976.000 Punkten/Sekunde (Faro Photon 120) erreicht werden.
Ziel dieser Diplomarbeit ist die Implementierung eines automatisierten und robusten Prozesses zur Verarbeitung von TLS-Punkwolken historischer Fassaden.
Basierend auf einer RANSAC unterstützen Methode wird die Struktur der Fassade durch geometrische Grundformen wie Ebenen, Kugeln oder Zylinder beschrieben. Abhängig von den Aufnahmebedingungen wird mithilfe dieser Methode eine Segmentierung der Objekte erreicht. Um die Performance hinsichtlich der großen Datenmenge und die Qualität der Resultate zu steigern, werden Optimierungen im Bereich der Modellinitialisierung (gestaffelte Initialisierungsumgebung) und der Lokalisierung von Punkten (kd-tree) umgesetzt. Um Redundanz zu vermeiden, werden die Symmetrieeigenschaften der Fassade untersucht. Es wird angenommen, dass klassizistische Fenster und deren Umrandungen symmetrisch angeordnet sind. Die Konturen der Fenster werden extrahiert und die Fassade in Regions Of Interest aufgeteilt. Diese werden anschließend mittels des Iterative Closest Point Algorithmus miteinander verglichen und ein Similaritätsmaß anhand der gemittelten quadrierten Distanzen ermittelt. Es wird gezeigt, dass dieses Kriterium in Kombination mit Otsu's Schwellenwertermittlung einen ausreichende Klassifizierung in symmetrische und nicht-symmetrische ROIs ergibt. Sind zwei Regionen symmetrisch, so werden sie einem Fenstermodell zugeordnet, welches durch jede weitere Instanz verfeinert wird. Letztendlich wird die Fassade durch die unterschiedlichen Fenstermodelle repräsentiert, welche aus den geometrischen Grundformen, den verbleibenden Punkten und den Einfügekriterien bestehen.
Terrestrisches Laser Scanning (TLS) ist ein berührungsloses 3d-Datenerfassungssystem, welches z.B. in der Geomatik oder dem Denkmal- und Kulturgüterschutz verwendet wird. Abhängig vom Prinzip der Distanzmessung können Reichweiten bis zu 4000 m (RIEGL VZ-4000) oder Messraten von 976.000 Punkten/Sekunde (Faro Photon 120) erreicht werden.
Ziel dieser Diplomarbeit ist die Implementierung eines automatisierten und robusten Prozesses zur Verarbeitung von TLS-Punkwolken historischer Fassaden.
Basierend auf einer RANSAC unterstützen Methode wird die Struktur der Fassade durch geometrische Grundformen wie Ebenen, Kugeln oder Zylinder beschrieben. Abhängig von den Aufnahmebedingungen wird mithilfe dieser Methode eine Segmentierung der Objekte erreicht. Um die Performance hinsichtlich der großen Datenmenge und die Qualität der Resultate zu steigern, werden Optimierungen im Bereich der Modellinitialisierung (gestaffelte Initialisierungsumgebung) und der Lokalisierung von Punkten (kd-tree) umgesetzt. Um Redundanz zu vermeiden, werden die Symmetrieeigenschaften der Fassade untersucht. Es wird angenommen, dass klassizistische Fenster und deren Umrandungen symmetrisch angeordnet sind. Die Konturen der Fenster werden extrahiert und die Fassade in Regions Of Interest aufgeteilt. Diese werden anschließend mittels des Iterative Closest Point Algorithmus miteinander verglichen und ein Similaritätsmaß anhand der gemittelten quadrierten Distanzen ermittelt. Es wird gezeigt, dass dieses Kriterium in Kombination mit Otsu's Schwellenwertermittlung einen ausreichende Klassifizierung in symmetrische und nicht-symmetrische ROIs ergibt. Sind zwei Regionen symmetrisch, so werden sie einem Fenstermodell zugeordnet, welches durch jede weitere Instanz verfeinert wird. Letztendlich wird die Fassade durch die unterschiedlichen Fenstermodelle repräsentiert, welche aus den geometrischen Grundformen, den verbleibenden Punkten und den Einfügekriterien bestehen.
Bereitstellung von Infrastruktur für die WLAN Indoor-Positionierung mit einem Smartphone
Institut für Navigation, Technische Universität Graz, 2014
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Diese Abhandlung beschreibt die funktionsfähige Infrastruktur für die Kommunikation zwischen einem Smartphone und einem Webservice mit dem Ziel, eine mobile Indoor-Positionsbestimmung durchzuführen. Im Zuge dieser Arbeit wird ein Webserver mit einer PostgreSQL Datenbank eingerichtet. Ein Apache HTTP Server wird konfiguriert und für den Zugriff aus dem Internet freigegeben. Es wird ein PHP Webservice programmiert, welches die Anfragen vom Smartphone empfängt und bearbeitet. Besonderes Augenmerk wird auf die Entwicklung einer Smartphone-Applikation gelegt, welche einerseits der Messung der WLAN Signalstärke an einem örtlich lokalisierten Referenzpunkt dient und andererseits die Positionsbestimmung mittels WLAN Fingerprinting beherrscht. Abschließend wird eine webbasierte Verwaltungsoberfläche erstellt. Unter Zuhilfenahme dieser Infrastruktur können die gemessenen Referenzpunkte der Datenbank hinzugefügt und anschließend in Echtzeit für die Positionierung innerhalb eines Gebäudes verwendet werden. Für weiterführende Untersuchungen kann die Methode der Positionsberechnung durch alternative Ansätze erweitert werden. Ebenfalls können zusätzlich gemessene Parameter im Webservice implementiert werden.
Diese Abhandlung beschreibt die funktionsfähige Infrastruktur für die Kommunikation zwischen einem Smartphone und einem Webservice mit dem Ziel, eine mobile Indoor-Positionsbestimmung durchzuführen. Im Zuge dieser Arbeit wird ein Webserver mit einer PostgreSQL Datenbank eingerichtet. Ein Apache HTTP Server wird konfiguriert und für den Zugriff aus dem Internet freigegeben. Es wird ein PHP Webservice programmiert, welches die Anfragen vom Smartphone empfängt und bearbeitet. Besonderes Augenmerk wird auf die Entwicklung einer Smartphone-Applikation gelegt, welche einerseits der Messung der WLAN Signalstärke an einem örtlich lokalisierten Referenzpunkt dient und andererseits die Positionsbestimmung mittels WLAN Fingerprinting beherrscht. Abschließend wird eine webbasierte Verwaltungsoberfläche erstellt. Unter Zuhilfenahme dieser Infrastruktur können die gemessenen Referenzpunkte der Datenbank hinzugefügt und anschließend in Echtzeit für die Positionierung innerhalb eines Gebäudes verwendet werden. Für weiterführende Untersuchungen kann die Methode der Positionsberechnung durch alternative Ansätze erweitert werden. Ebenfalls können zusätzlich gemessene Parameter im Webservice implementiert werden.
GPS-basierte Navigation eines autonomen mobilen Feldroboters zur Messung von Bodeneigenschaften
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Zur Automatisierung unterschiedlicher Aufgaben im Agrarbereich wurde ein autonomer mobiler Feldroboter (BoniRob) im Rahmen eines Forschungsprojekts von den Unternehmen AMAZONEN-Werke H. Dreyer GmbH & Co. KG, Robert Bosch GmbH und der Hochschule Osnabrück entwickelt. Dieser dient als Trägerplattform für verschiedene Geräte, sogenannte BoniRob-Apps. Zusätzlich wurde an der Hochschule Osnabrück ein Penetrometer-App zur automatisierten Messung des Eindringwiderstands [MPa] entwickelt. Im Rahmen dieser Diplomarbeit wird die Entwicklung eines Softwaremoduls zur GNSS-basierten Navigation von BoniRob beschrieben. Dabei wurde eine Wegpunkt-Navigation zur Anfahrt von vorgegebenen Messpunkten implementiert. An diesen Messpunkten sind automatisierte Messungen mit dem Penetrometer-App durchgeführt und georeferenziert worden. Zur Positionierung wurden Netzwerk-RTK Messungen durchgeführt. Die Planung und Auswertung der Messfahrt erfolgte mittels GIS-Software. Das Robot Operating System (ROS) wurde als Software-Framework zur Realisierung des Navigationsmoduls eingesetzt. Die Umsetzung einer browserbasierten grafischen Benutzeroberfläche zur Steuerung des Navigationsmoduls erfolgte mit dem Web Toolkit (Wt). Für die Navigation mussten dabei folgende Teilaspekte gelöst werden: Bestimmung der Anfahrtreihenfolge der einzelnen Messpunkte (VRP), Planung eines für die Roboterplattform ausführbaren Pfads zum Zielpunkt und Azimutbestimmung mittels RTK Messungen während der Fahrt des Roboters. Weiters wurde die Einbindung von zusätzlichen Sensoren (Odometer und IMU) getestet. Zur Evaluierung des Navigationsmoduls wurden mehrere Feldtests an Testflächen des Versuchsbetriebs Waldhof der Hochschule Osnabrück durchgeführt. Dabei konnten im Zuge von Testmessungen im automatischen Modus 35 Messpunkte in einem 10 x 10 m Raster mit einer Genauigkeit von ca. 10 cm angefahren werden (mittlerer Abstand vom Zielpunkt). Zur Behebung der bei der Navigation aufgetretenen Probleme müssen Pfadplanung (motion primitives) und Fahrbefehle noch besser aufeinander abgestimmt werden. Die bei den Testmessungen durchgeführten Penetrometer-messungen wurden mit einer OS Kriging Software interpoliert und mit einem GIS visualisiert.
Zur Automatisierung unterschiedlicher Aufgaben im Agrarbereich wurde ein autonomer mobiler Feldroboter (BoniRob) im Rahmen eines Forschungsprojekts von den Unternehmen AMAZONEN-Werke H. Dreyer GmbH & Co. KG, Robert Bosch GmbH und der Hochschule Osnabrück entwickelt. Dieser dient als Trägerplattform für verschiedene Geräte, sogenannte BoniRob-Apps. Zusätzlich wurde an der Hochschule Osnabrück ein Penetrometer-App zur automatisierten Messung des Eindringwiderstands [MPa] entwickelt. Im Rahmen dieser Diplomarbeit wird die Entwicklung eines Softwaremoduls zur GNSS-basierten Navigation von BoniRob beschrieben. Dabei wurde eine Wegpunkt-Navigation zur Anfahrt von vorgegebenen Messpunkten implementiert. An diesen Messpunkten sind automatisierte Messungen mit dem Penetrometer-App durchgeführt und georeferenziert worden. Zur Positionierung wurden Netzwerk-RTK Messungen durchgeführt. Die Planung und Auswertung der Messfahrt erfolgte mittels GIS-Software. Das Robot Operating System (ROS) wurde als Software-Framework zur Realisierung des Navigationsmoduls eingesetzt. Die Umsetzung einer browserbasierten grafischen Benutzeroberfläche zur Steuerung des Navigationsmoduls erfolgte mit dem Web Toolkit (Wt). Für die Navigation mussten dabei folgende Teilaspekte gelöst werden: Bestimmung der Anfahrtreihenfolge der einzelnen Messpunkte (VRP), Planung eines für die Roboterplattform ausführbaren Pfads zum Zielpunkt und Azimutbestimmung mittels RTK Messungen während der Fahrt des Roboters. Weiters wurde die Einbindung von zusätzlichen Sensoren (Odometer und IMU) getestet. Zur Evaluierung des Navigationsmoduls wurden mehrere Feldtests an Testflächen des Versuchsbetriebs Waldhof der Hochschule Osnabrück durchgeführt. Dabei konnten im Zuge von Testmessungen im automatischen Modus 35 Messpunkte in einem 10 x 10 m Raster mit einer Genauigkeit von ca. 10 cm angefahren werden (mittlerer Abstand vom Zielpunkt). Zur Behebung der bei der Navigation aufgetretenen Probleme müssen Pfadplanung (motion primitives) und Fahrbefehle noch besser aufeinander abgestimmt werden. Die bei den Testmessungen durchgeführten Penetrometer-messungen wurden mit einer OS Kriging Software interpoliert und mit einem GIS visualisiert.
Assessment of the radiation load of Multilateration in comparison to the traditional Secondary Surveillance Radar for an area cell
Studiengang Intelligent Transportation Systems, Fachhochschule Technikum Wien, 2013
Betreuer: Dipl.-Ing. Michael Löffler; Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Betreuer: Dipl.-Ing. Michael Löffler; Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
In der heutigen Zeit wird der Mensch immer öfters Strahlungen, wie z.B. elektromagnetische Strahlung, ausgesetzt, ohne diese wahrzunehmen bzw. zu kennen. Vor allem auf dem Gebiet der Luftfahrt ist es notwendig neue Technologien zu finden, um die negativen Effekte von Strahlungen, wie z.B. elektromagnetische Strahlung, zu reduzieren.
Diese Masterarbeit befasst sich mit der Strahlungsbelastung der Technologie Multilateration und vergleicht diese mit der Belastung eines traditionellen Sekundärradars. Anfangs werden allgemeine Grundlagen der Technologie Multilateration, wie z.B. Definition, Funktionsweise & Positionsbestimmung, näher erläutert. In weiterer Folge werden die Applikationen, die Zertifizierung, die Änderungen für Fluglotsen, die ökonomischen und ökologischen Aspekte und der Einsatz in anderen Ländern der Technologie beschrieben.
Danach wird das System Design anhand der Lösung in Österreich beschrieben und aufbauend auf dieses System wird ein Modell zur Berechnung der Strahlungsbelastung im Raum Linz entwickelt. Zum Schluss folgt eine ausführliche Analyse und Diskussion der Ergebnisse.
In der heutigen Zeit wird der Mensch immer öfters Strahlungen, wie z.B. elektromagnetische Strahlung, ausgesetzt, ohne diese wahrzunehmen bzw. zu kennen. Vor allem auf dem Gebiet der Luftfahrt ist es notwendig neue Technologien zu finden, um die negativen Effekte von Strahlungen, wie z.B. elektromagnetische Strahlung, zu reduzieren.
Diese Masterarbeit befasst sich mit der Strahlungsbelastung der Technologie Multilateration und vergleicht diese mit der Belastung eines traditionellen Sekundärradars. Anfangs werden allgemeine Grundlagen der Technologie Multilateration, wie z.B. Definition, Funktionsweise & Positionsbestimmung, näher erläutert. In weiterer Folge werden die Applikationen, die Zertifizierung, die Änderungen für Fluglotsen, die ökonomischen und ökologischen Aspekte und der Einsatz in anderen Ländern der Technologie beschrieben.
Danach wird das System Design anhand der Lösung in Österreich beschrieben und aufbauend auf dieses System wird ein Modell zur Berechnung der Strahlungsbelastung im Raum Linz entwickelt. Zum Schluss folgt eine ausführliche Analyse und Diskussion der Ergebnisse.
Spatial Data Mining of Energy Consumption Data in Private Households
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2014
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Kurzfassung/Abstract
This study presents an empirical modeling technique for the classification of different private household profiles concerning energy consumption. Considering the increasing importance of more energy efficiency and greener buildings in the housing segment this study should outline new ways to extensively evaluate the status quo of energy demands and reveal consumption patterns. Classification is based on data mining algorithms that help to extract knowledge through pattern recognition from a high-dimensional dataset. The examined data has been gathered in a previous study and encompasses valuable information about the annual overall energy consumption rates of individual households in the district of Hermagor, Austria. The scope of the data reaches from energy consumption rates, over dwelling characteristics, to information about the spatial context. The goal is to understand energy consumption behavior of different dwelling types and to find the crucial parameters differentiating them from each other on a local basis. Therefore, data mining algorithms such as self-organizing maps, k-means clustering and decision trees have been arranged and applied in a project model workflow. The selection of adequate methodologies and algorithms was based on an earlier performed literature review. As a result household and dwelling classes that vary in their consumption behavior are attained. A final table providing the characteristics (spatial and non-spatial) of the respective classes is the final outcome. As a consequence these profiles can serve as valuable planning information and help to enforce targeted energy saving recommendations. In addition, the results as well as the conceptual workflow are a basis for subsequent (predictive) modeling approaches that support the development of smart energy distribution systems.
This study presents an empirical modeling technique for the classification of different private household profiles concerning energy consumption. Considering the increasing importance of more energy efficiency and greener buildings in the housing segment this study should outline new ways to extensively evaluate the status quo of energy demands and reveal consumption patterns. Classification is based on data mining algorithms that help to extract knowledge through pattern recognition from a high-dimensional dataset. The examined data has been gathered in a previous study and encompasses valuable information about the annual overall energy consumption rates of individual households in the district of Hermagor, Austria. The scope of the data reaches from energy consumption rates, over dwelling characteristics, to information about the spatial context. The goal is to understand energy consumption behavior of different dwelling types and to find the crucial parameters differentiating them from each other on a local basis. Therefore, data mining algorithms such as self-organizing maps, k-means clustering and decision trees have been arranged and applied in a project model workflow. The selection of adequate methodologies and algorithms was based on an earlier performed literature review. As a result household and dwelling classes that vary in their consumption behavior are attained. A final table providing the characteristics (spatial and non-spatial) of the respective classes is the final outcome. As a consequence these profiles can serve as valuable planning information and help to enforce targeted energy saving recommendations. In addition, the results as well as the conceptual workflow are a basis for subsequent (predictive) modeling approaches that support the development of smart energy distribution systems.
Personal Information Management mit geografischen Koordinaten und statistischer Auswertung von Daten
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Frank, Amin Abdalla MSc
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Andreas Frank, Amin Abdalla MSc
Kurzfassung/Abstract
Tragbare elektronische Geräte, wie Mobiltelefone oder Tablets, ermöglichen dem Nutzer, den eigenen Standort durch GPS oder das Mobilfunknetz abzurufen. Diese räumlichen Informationen bieten im Hinblick auf eine "Personal Information Management (PIM)" Applikation eine Basis für verschiedene Funktionen, die den Anwender bei der Aufgabenplanung unterstützen.
Das Ziel dieser Arbeit ist zu erörtern, ob durch eine statistische Auswertung von Standort-Informationen, die durch einen Benutzer gesammelt werden, die Planung von Terminen und Aufgaben verbessert werden kann und welche Funktionen, basierend auf der statistischen Auswertung, in eine entsprechende Anwendung integriert werden können. Um das Ziel zu erreichen wird ein Prototyp einer Aufgabenverwaltungssoftware programmiert, der Unzulänglichkeiten von früheren Arbeiten vermeiden und Funktionen zur Terminverwaltung zur Verfügung stellen soll. Die Daten des Nutzers werden statistisch ausgewertet und können zur Planung von Aufgaben herangezogen werden.
Die Arbeit zeigt, dass die Aufgabenplanung durch die Nutzung von Standort-Koordinaten und Statistik verbessert werden kann. Es wird deutlich, dass die Auswertung von Terminen allein nur wenige Informationen liefert. Der Aufenthaltsort des Anwenders muss zu jeder Zeit bekannt sein, um genügend Daten für Funktionen zur Unterstützung der Planung zu sammeln. Die Umsetzung der Anwendung als Web-Applikation erlaubt die Realisierung von Basisfunktionen für die Aufgabenverwaltung, es werden jedoch Einschränkungen im Zugriff auf die Hardware bzw. das Betriebssystem deutlich.
Tragbare elektronische Geräte, wie Mobiltelefone oder Tablets, ermöglichen dem Nutzer, den eigenen Standort durch GPS oder das Mobilfunknetz abzurufen. Diese räumlichen Informationen bieten im Hinblick auf eine "Personal Information Management (PIM)" Applikation eine Basis für verschiedene Funktionen, die den Anwender bei der Aufgabenplanung unterstützen.
Das Ziel dieser Arbeit ist zu erörtern, ob durch eine statistische Auswertung von Standort-Informationen, die durch einen Benutzer gesammelt werden, die Planung von Terminen und Aufgaben verbessert werden kann und welche Funktionen, basierend auf der statistischen Auswertung, in eine entsprechende Anwendung integriert werden können. Um das Ziel zu erreichen wird ein Prototyp einer Aufgabenverwaltungssoftware programmiert, der Unzulänglichkeiten von früheren Arbeiten vermeiden und Funktionen zur Terminverwaltung zur Verfügung stellen soll. Die Daten des Nutzers werden statistisch ausgewertet und können zur Planung von Aufgaben herangezogen werden.
Die Arbeit zeigt, dass die Aufgabenplanung durch die Nutzung von Standort-Koordinaten und Statistik verbessert werden kann. Es wird deutlich, dass die Auswertung von Terminen allein nur wenige Informationen liefert. Der Aufenthaltsort des Anwenders muss zu jeder Zeit bekannt sein, um genügend Daten für Funktionen zur Unterstützung der Planung zu sammeln. Die Umsetzung der Anwendung als Web-Applikation erlaubt die Realisierung von Basisfunktionen für die Aufgabenverwaltung, es werden jedoch Einschränkungen im Zugriff auf die Hardware bzw. das Betriebssystem deutlich.
Anforderungen an eine Web-GIS Lösung zur Unterstützung der technischen Außendienstprozesse für die öffentliche Beleuchtung
Institut für Geoinformation, Technische Universität Graz, 2014
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Die vorliegende Masterarbeit beinhaltet die Anforderungen und Möglichkeiten einer mobilen und kartenbasierenden Applikation, welche Außendiensttätigkeiten der Abteilung für öffentlich Beleuchtung eines EVU unterstützen und optimieren soll. Für diesen Zweck sollen auf den Beleuchtungsobjekten, Leuchten, Masten und Beleuchtungsschaltstellen angebrachte RFID-Transponder zur Unterstützung der Identifikation genutzt werden. Der theoretische Teil der Arbeit beschäftigt sich mit der Ist- und Soll-Zustandsanalyse von Außendiensttätigkeiten der oben genannten Abteilung. Diese Zustandsanalysen zeigen die Anforderungen seitens des EVU an die Applikation. Des Weiteren werden die verschiedenen automatischen Identifikationssysteme erläutert, auf den derzeitigen Stand der Entwicklung von mobilen Applikationen eingegangen und das zum Einsatz kommende Netzinformationssystem beschrieben. Der praktische Teil beschäftigt sich mit der Umsetzung der zuvor analysierten Prozesse und Integration der Anforderungen in eine mobile Applikation, welche mit RFID-Transpondern kommunizieren kann. Abschließend werden ungelöste Problemstellungen erläutert und es wird ein Ausblick auf zukünftige Weiterentwicklungsmöglichkeiten gegeben.
Die vorliegende Masterarbeit beinhaltet die Anforderungen und Möglichkeiten einer mobilen und kartenbasierenden Applikation, welche Außendiensttätigkeiten der Abteilung für öffentlich Beleuchtung eines EVU unterstützen und optimieren soll. Für diesen Zweck sollen auf den Beleuchtungsobjekten, Leuchten, Masten und Beleuchtungsschaltstellen angebrachte RFID-Transponder zur Unterstützung der Identifikation genutzt werden. Der theoretische Teil der Arbeit beschäftigt sich mit der Ist- und Soll-Zustandsanalyse von Außendiensttätigkeiten der oben genannten Abteilung. Diese Zustandsanalysen zeigen die Anforderungen seitens des EVU an die Applikation. Des Weiteren werden die verschiedenen automatischen Identifikationssysteme erläutert, auf den derzeitigen Stand der Entwicklung von mobilen Applikationen eingegangen und das zum Einsatz kommende Netzinformationssystem beschrieben. Der praktische Teil beschäftigt sich mit der Umsetzung der zuvor analysierten Prozesse und Integration der Anforderungen in eine mobile Applikation, welche mit RFID-Transpondern kommunizieren kann. Abschließend werden ungelöste Problemstellungen erläutert und es wird ein Ausblick auf zukünftige Weiterentwicklungsmöglichkeiten gegeben.
Die Station Warkworth im globalen geodätischen VLBI Netz
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Die vorliegende Diplomarbeit befasst sich mit der im Jahre 2008 errichteten VLBI-Station Warkworth in Neuseeland und ihrem Beitrag zum globalen geodätischen VLBI-Netz.
Nach einer Einführung in die Grundlagen der VLBI, wird detailliert auf das Projekt VLBI 2010 eingegangen. Um die ambitionierten Ziele und Anforderungen dieses Projekts zu erreichen, werden Strategien und Untersuchungen zur Verbesserung der VLBI erläutert. Anschließend wird auf das zentrale Thema der Arbeit, die VLBI-Station Warkworth, eingegangen. Die 2008 errichtete Antenne in Warkworth in Neuseeland ist eine neue VLBI-Station im globalen geodätischen VLBI-Netz, die den Anforderungen des Projekts VLBI 2010 entspricht. Durch die Lage auf der südlichen Hemisphäre nimmt sie einen wichtigen Platz im VLBI-Netz ein. Um den Stellenwert der Position der Station Warkworth zu überprüfen werden VLBI-Sessions, an denen die Station in den Jahren 2011 und 2012 teilgenommen hat, mit der Vienna VLBI Software ausgewertet, einmal mit Teilnahme der Station Warkworth und einmal ohne Teilnahme der Antenne. Aufgrund des Auslassens der Station bei den Berechnungen soll eine Verschlechterung in den Ergebnissen für die Erdorientierungsparameter erwiesen werden. Weiters ist mit einer Abnahme der Zahl der beobachteten Radioquellen zu rechnen.
Die Auswertungen entsprechen den erwarteten Ergebnissen. 60 Prozent der Sessions weisen ohne Berücksichtigung der Station Warkworth eine Verringerung, um mindestens eine beobachtete Radioquelle, auf. Anhand der Analyse der fehlenden Radioquellen lässt sich außerdem feststellen, dass diese Quellen zum Großteil eine hohe negative Deklination zwischen -20 und -80° aufweisen. Die Sessions müssen somit auf einige Radioquellen auf der südlichen Hemisphäre verzichten, was wiederum zu einer geringeren Anzahl an Beobachtungen und zu einer Verschlechterung der Erdorientierungsparameter führt.
Von den jeweils 5 ausgewerteten Erdorientierungsparametern pro Session weisen 31 von 50 verschlechterte Werte für den formalen Fehler auf. Der Unterschied in den Ergebnissen beträgt im Mittelwert 0,04 Millibogensekunden, bei einer Session ist der formale Fehler sogar 0,72 Millibogensekunden.
Diese Ergebnisse zeigen klar den Nutzen und den Stellenwert der Station Warkworth für das globale geodätische VLBI-Netz durch ihre Lage auf der südlichen Halbkugel.
Die vorliegende Diplomarbeit befasst sich mit der im Jahre 2008 errichteten VLBI-Station Warkworth in Neuseeland und ihrem Beitrag zum globalen geodätischen VLBI-Netz.
Nach einer Einführung in die Grundlagen der VLBI, wird detailliert auf das Projekt VLBI 2010 eingegangen. Um die ambitionierten Ziele und Anforderungen dieses Projekts zu erreichen, werden Strategien und Untersuchungen zur Verbesserung der VLBI erläutert. Anschließend wird auf das zentrale Thema der Arbeit, die VLBI-Station Warkworth, eingegangen. Die 2008 errichtete Antenne in Warkworth in Neuseeland ist eine neue VLBI-Station im globalen geodätischen VLBI-Netz, die den Anforderungen des Projekts VLBI 2010 entspricht. Durch die Lage auf der südlichen Hemisphäre nimmt sie einen wichtigen Platz im VLBI-Netz ein. Um den Stellenwert der Position der Station Warkworth zu überprüfen werden VLBI-Sessions, an denen die Station in den Jahren 2011 und 2012 teilgenommen hat, mit der Vienna VLBI Software ausgewertet, einmal mit Teilnahme der Station Warkworth und einmal ohne Teilnahme der Antenne. Aufgrund des Auslassens der Station bei den Berechnungen soll eine Verschlechterung in den Ergebnissen für die Erdorientierungsparameter erwiesen werden. Weiters ist mit einer Abnahme der Zahl der beobachteten Radioquellen zu rechnen.
Die Auswertungen entsprechen den erwarteten Ergebnissen. 60 Prozent der Sessions weisen ohne Berücksichtigung der Station Warkworth eine Verringerung, um mindestens eine beobachtete Radioquelle, auf. Anhand der Analyse der fehlenden Radioquellen lässt sich außerdem feststellen, dass diese Quellen zum Großteil eine hohe negative Deklination zwischen -20 und -80° aufweisen. Die Sessions müssen somit auf einige Radioquellen auf der südlichen Hemisphäre verzichten, was wiederum zu einer geringeren Anzahl an Beobachtungen und zu einer Verschlechterung der Erdorientierungsparameter führt.
Von den jeweils 5 ausgewerteten Erdorientierungsparametern pro Session weisen 31 von 50 verschlechterte Werte für den formalen Fehler auf. Der Unterschied in den Ergebnissen beträgt im Mittelwert 0,04 Millibogensekunden, bei einer Session ist der formale Fehler sogar 0,72 Millibogensekunden.
Diese Ergebnisse zeigen klar den Nutzen und den Stellenwert der Station Warkworth für das globale geodätische VLBI-Netz durch ihre Lage auf der südlichen Halbkugel.
Beobachtung von GNSS Satelliten mit VLBI Radioteleskopen - Von der Beobachtungsplanung zur praktischen Umsetzung
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dr. Alexander Neidhardt, Dr. Lucia Plank
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dr. Alexander Neidhardt, Dr. Lucia Plank
Kurzfassung/Abstract
Within this master thesis options for an operational path of carrying out VLBI observations of satellites are investigated. From scheduling, over satellite tracking, to actual data acquisition, the complete process chain is considered. One concept for VLBI satellite observations has been exemplarily realized with the radio antennas at the Geodetic Observatory Wettzell (GOW), Germany. It is based on a newly developed satellite scheduling module of the Vienna VLBI Software (VieVS) in combination with dedicated satellite tracking features provided directly by the Antenna Control Units (ACU), which were activated in the NASA Field System (FS). Observing satellites with VLBI is a promising topic and has been discussed vividly in the VLBI community for the last few years. Despite several successful experiments, a clear strategy has not been shown so far, demonstrating a way of realizing such observations operationally. The challenges already start at the observation planning level, because the common scheduling software packages are currently not able to schedule moving satellites as targets. Additionally, the current standard data-formats used for VLBI schedule files do not provide the possibility to define satellite orbits in a suitable way. Finally, the most recent version of the FS does not yet support the generation of appropriate local control-files (SNAP files) for satellite observations, which would be required to carry out such VLBI sessions automatized. These restrictions are the reason that previous satellite observations had to be done with hand-written schedules and numerous manual interaction at the stations. Therefore, an operational path for satellite observations with VLBI is still missing. On that account a joint project with the GOW was started to investigate concepts for an operational path for VLBI observations of satellites. VieVS was extended with a new module providing the possibility of scheduling VLBI satellite observations. Considering several observation conditions, such as the common visibility from a selected station network, the program determines a selection of satellites being potentially available for observations and presents this information to the user, who is asked to assemble an observation plan. The schedule is then saved in the VEX format, with the changing satellite positions converted to sequences of corresponding topocentric celestial coordinates. Based on these VEX files satellites can be tracked - virtually stepwise - by consecutively re-positioning the antennas in a defined time interval. Alternatively, preparations were made at Wettzell to be able to track satellites in a truly continuous fashion by making use of the satellite tracking mode provided by the ACU of Wettzell's antennas. Therefore, modifications in the station-specific code of the FS were required to enable this feature. Several successful observations of GLONASS satellites were carried out in January 2014 on the baseline Wettzell-Onsala based on the implemented concept, validating that all developments worked properly. These experiments showed that VLBI satellite observations can already be carried out nearly operationally, which is important to promote further developments and research activities in this field of VLBI.
Within this master thesis options for an operational path of carrying out VLBI observations of satellites are investigated. From scheduling, over satellite tracking, to actual data acquisition, the complete process chain is considered. One concept for VLBI satellite observations has been exemplarily realized with the radio antennas at the Geodetic Observatory Wettzell (GOW), Germany. It is based on a newly developed satellite scheduling module of the Vienna VLBI Software (VieVS) in combination with dedicated satellite tracking features provided directly by the Antenna Control Units (ACU), which were activated in the NASA Field System (FS). Observing satellites with VLBI is a promising topic and has been discussed vividly in the VLBI community for the last few years. Despite several successful experiments, a clear strategy has not been shown so far, demonstrating a way of realizing such observations operationally. The challenges already start at the observation planning level, because the common scheduling software packages are currently not able to schedule moving satellites as targets. Additionally, the current standard data-formats used for VLBI schedule files do not provide the possibility to define satellite orbits in a suitable way. Finally, the most recent version of the FS does not yet support the generation of appropriate local control-files (SNAP files) for satellite observations, which would be required to carry out such VLBI sessions automatized. These restrictions are the reason that previous satellite observations had to be done with hand-written schedules and numerous manual interaction at the stations. Therefore, an operational path for satellite observations with VLBI is still missing. On that account a joint project with the GOW was started to investigate concepts for an operational path for VLBI observations of satellites. VieVS was extended with a new module providing the possibility of scheduling VLBI satellite observations. Considering several observation conditions, such as the common visibility from a selected station network, the program determines a selection of satellites being potentially available for observations and presents this information to the user, who is asked to assemble an observation plan. The schedule is then saved in the VEX format, with the changing satellite positions converted to sequences of corresponding topocentric celestial coordinates. Based on these VEX files satellites can be tracked - virtually stepwise - by consecutively re-positioning the antennas in a defined time interval. Alternatively, preparations were made at Wettzell to be able to track satellites in a truly continuous fashion by making use of the satellite tracking mode provided by the ACU of Wettzell's antennas. Therefore, modifications in the station-specific code of the FS were required to enable this feature. Several successful observations of GLONASS satellites were carried out in January 2014 on the baseline Wettzell-Onsala based on the implemented concept, validating that all developments worked properly. These experiments showed that VLBI satellite observations can already be carried out nearly operationally, which is important to promote further developments and research activities in this field of VLBI.
Grenzen und Anwendbarkeit der Positionsbestimmung mittels HS-GPS im Wald
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2014
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Günther Retscher
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Günther Retscher
Kurzfassung/Abstract
Moderne High-Sensitive-GPS-Empfänger (HS-GPS) erreichen durch die Entwicklung von schnelleren Prozessoren und neuen Signalbearbeitungstechniken im Codeverfahren entweder eine Genauigkeit unter einem Meter oder eine hohe Verfügbarkeit in Gebäuden, Häuserschluchten und Wäldern. Die Varianz zwischen Genauigkeit und Verfügbarkeit kann jedoch zu Missverständnissen führen. Die Situation bei der Positionsbestimmung im Wald genügt nur bedingt dem mathematischen Modell, da die empfangenen Satellitensignale nicht unbeeinflusst zum Empfänger gekommen sind, und die Messung an Qualität verliert. In dieser Arbeit wird die Messsituation HS-GPS-Messung im Wald näher untersucht, die Qualität der Codelösungen eines klassischen Navigationsempfängers bestimmt, sowie die Möglichkeiten einer Einfrequenz-Basislinienmessung zu einer virtuellen Referenzstation beschrieben. In einem Mischwald rund 20 Kilometer westlich von Wien wurden zehn koordinativ bekannte Messpunkte jeweils 24 Stunden lang zu drei verschiedenen Vegetationszeitpunkten mit einem HS-GPS-Empfänger gemessen und die Rohdaten gespeichert. Bei der Analyse wurden aus diesen einerseits mit der empfängereigenen Software Codelösungen berechnet und andererseits mit einem Vermessungsprogramm Basislinien zu einer virtuellen Referenzstation gerechnet. Alle Ergebnisse wurden mit den absoluten Koordinaten der jeweiligen Messpunkte verglichen und die Ergebnisse nach der Art des Waldes und der Saison getrennt analysiert. Moderne HS-GPS-Empfänger bewiesen im Wald eine hohe Verfügbarkeit. Die mittleren Punktlagefehler liegen zwischen einem Dezimeter und zwei Metern bei rund acht Metern Standardabweichung abhängig von Waldart und Jahreszeit. Durch statische Messungen konnte die Standardabweichung auf drei Meter gesenkt werden. Die Analyse der Basislinienmessungen zeigte jedoch, dass eine große Anzahl der Messungen grobe Fehler aufwiesen. Die Analyse der Rohdaten ergab, dass bis zu 50 % der einzelnen Satellitenbeobachtungen im Wald von einem Verlust der Lösung der Mehrdeutigkeiten betroffen waren. Der Median von unter einem halben Meter und ein Quartilabstand von weniger als fünf Metern belegte allerdings, dass sich mit differentiellen Methoden die Qualität der Positionsbestimmung im Wald noch steigern lässt.
Moderne High-Sensitive-GPS-Empfänger (HS-GPS) erreichen durch die Entwicklung von schnelleren Prozessoren und neuen Signalbearbeitungstechniken im Codeverfahren entweder eine Genauigkeit unter einem Meter oder eine hohe Verfügbarkeit in Gebäuden, Häuserschluchten und Wäldern. Die Varianz zwischen Genauigkeit und Verfügbarkeit kann jedoch zu Missverständnissen führen. Die Situation bei der Positionsbestimmung im Wald genügt nur bedingt dem mathematischen Modell, da die empfangenen Satellitensignale nicht unbeeinflusst zum Empfänger gekommen sind, und die Messung an Qualität verliert. In dieser Arbeit wird die Messsituation HS-GPS-Messung im Wald näher untersucht, die Qualität der Codelösungen eines klassischen Navigationsempfängers bestimmt, sowie die Möglichkeiten einer Einfrequenz-Basislinienmessung zu einer virtuellen Referenzstation beschrieben. In einem Mischwald rund 20 Kilometer westlich von Wien wurden zehn koordinativ bekannte Messpunkte jeweils 24 Stunden lang zu drei verschiedenen Vegetationszeitpunkten mit einem HS-GPS-Empfänger gemessen und die Rohdaten gespeichert. Bei der Analyse wurden aus diesen einerseits mit der empfängereigenen Software Codelösungen berechnet und andererseits mit einem Vermessungsprogramm Basislinien zu einer virtuellen Referenzstation gerechnet. Alle Ergebnisse wurden mit den absoluten Koordinaten der jeweiligen Messpunkte verglichen und die Ergebnisse nach der Art des Waldes und der Saison getrennt analysiert. Moderne HS-GPS-Empfänger bewiesen im Wald eine hohe Verfügbarkeit. Die mittleren Punktlagefehler liegen zwischen einem Dezimeter und zwei Metern bei rund acht Metern Standardabweichung abhängig von Waldart und Jahreszeit. Durch statische Messungen konnte die Standardabweichung auf drei Meter gesenkt werden. Die Analyse der Basislinienmessungen zeigte jedoch, dass eine große Anzahl der Messungen grobe Fehler aufwiesen. Die Analyse der Rohdaten ergab, dass bis zu 50 % der einzelnen Satellitenbeobachtungen im Wald von einem Verlust der Lösung der Mehrdeutigkeiten betroffen waren. Der Median von unter einem halben Meter und ein Quartilabstand von weniger als fünf Metern belegte allerdings, dass sich mit differentiellen Methoden die Qualität der Positionsbestimmung im Wald noch steigern lässt.
Integration of relative and global orientation methods using a moving ToF camera
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Wilfried Karel
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Wilfried Karel
Kurzfassung/Abstract
Das Ziel dieser Arbeit ist die Bestimmung und Verbesserung der Trajektorie einer bewegten Distanz-Kamera. Um ein Objekt mittels Bildern rekonstruieren zu können, muss die Position und die Stellung der Kamera im Raum zum Zeitpunkt der Aufnahme bekannt sein. Die Genauigkeit des geometrischen Modells hängt von der Genauigkeit der äußeren Orientierung der Kamera ab, deswegen widmet sich diese Arbeit der Schätzung und Genauigkeitssteigerung der Kamera-Trajektorie.
Einerseits wird die Kamera-Trajektorie diskret auf Basis der äußeren Orientierungen der Bündelblockausgleichung hergestellt, andererseits liefert der Range Optical Flow in den Amplituden- und Distanzbildern eine relative Orientierung zwischen aufeinanderfolgenden Bildern. Durch Aufsummierung der einzelnen relativen Orientierungen erhält man ebenfalls die Kamera-Trajektorie. Basierend auf einem Vergleich dieser Trajektorien, wird die These formuliert, dass die Integration beider Verfahren zu einer glatten, erwartungstreuen Trajektorie führt.
Das Modell der Bündelblockausgleichung lässt sich einfach erweitern, weshalb die relative Orientierung in diese Ausgleichung integriert wird. Dafür muss ein funktionaler Zusammenhang zwischen den relativen Orientierungs-Ergebnissen und den Parametern der Bündelblockausgleichung definiert werden. Das stochastische Modell wird ebenfalls um die Kovarianzmatrix der relativen Orientierung erweitert. Weiters werden die Distanzmessungen der ToF-Kamera in das Modell inkludiert. Die Gewichtung verschiedener Beobachtungstypen wird auf Basis der Varianzkomponentenschätzung durchgeführt.
Diese These wird anhand von zwei Datensätzen evaluiert, die wesentlich von Sättigungseffekten und Bewegungsunschärfe bestimmt sind; folglich werden auch die Unzulänglichkeiten des Messsystems behandelt. Der erste Datensatz liefert präzise äußere Orientierungen der Bündelblockausgleichung, aber im Vergleich zum zweiten Datensatz schlechtere relative Orientierungen. Die Integration der beiden Orientierungsmethoden führt zu keiner sichtlichen Verbesserung der Trajektorie, weil die Ausgangsdaten bereits ein sehr hohes Genauigkeitsniveau aufweisen.
Die Bündelblockausgleichungsergebnisse des zweiten Datensatzes sind - wahrscheinlich durch Bewegungsunschärfe verursacht - um einen Faktor zwei ungenauer als jene des ersten. Die relative Orientierung ist präziser als beim ersten Datensatz aufgrund von geringerem Rauschen und einem höheren Bildkontrast. Die Integration der relativen Orientierung verbessert den Trajektorienfehler um einen Faktor 14 und die Präzision der äußeren Orientierung um einen Faktor 3. Da Voraussetzungen der kleinsten Quadrate Ausgleichung sowie der Varianzkomponentenschätzung nicht erfüllt sind, dürfen diese Ergebnisse nicht unreflektiert übernommen werden.
Obwohl grobe Fehler entfernt und systematische Fehler in den Distanzbeobachtungen berücksichtigt werden, entspricht die Verteilung der Verbesserungen nicht einer Normalverteilung. Auch die geschätzte Kamera-Trajektorie zeigt, dass noch systematische Fehler in den Distanzen enthalten sind.
Das Ziel dieser Arbeit ist die Bestimmung und Verbesserung der Trajektorie einer bewegten Distanz-Kamera. Um ein Objekt mittels Bildern rekonstruieren zu können, muss die Position und die Stellung der Kamera im Raum zum Zeitpunkt der Aufnahme bekannt sein. Die Genauigkeit des geometrischen Modells hängt von der Genauigkeit der äußeren Orientierung der Kamera ab, deswegen widmet sich diese Arbeit der Schätzung und Genauigkeitssteigerung der Kamera-Trajektorie.
Einerseits wird die Kamera-Trajektorie diskret auf Basis der äußeren Orientierungen der Bündelblockausgleichung hergestellt, andererseits liefert der Range Optical Flow in den Amplituden- und Distanzbildern eine relative Orientierung zwischen aufeinanderfolgenden Bildern. Durch Aufsummierung der einzelnen relativen Orientierungen erhält man ebenfalls die Kamera-Trajektorie. Basierend auf einem Vergleich dieser Trajektorien, wird die These formuliert, dass die Integration beider Verfahren zu einer glatten, erwartungstreuen Trajektorie führt.
Das Modell der Bündelblockausgleichung lässt sich einfach erweitern, weshalb die relative Orientierung in diese Ausgleichung integriert wird. Dafür muss ein funktionaler Zusammenhang zwischen den relativen Orientierungs-Ergebnissen und den Parametern der Bündelblockausgleichung definiert werden. Das stochastische Modell wird ebenfalls um die Kovarianzmatrix der relativen Orientierung erweitert. Weiters werden die Distanzmessungen der ToF-Kamera in das Modell inkludiert. Die Gewichtung verschiedener Beobachtungstypen wird auf Basis der Varianzkomponentenschätzung durchgeführt.
Diese These wird anhand von zwei Datensätzen evaluiert, die wesentlich von Sättigungseffekten und Bewegungsunschärfe bestimmt sind; folglich werden auch die Unzulänglichkeiten des Messsystems behandelt. Der erste Datensatz liefert präzise äußere Orientierungen der Bündelblockausgleichung, aber im Vergleich zum zweiten Datensatz schlechtere relative Orientierungen. Die Integration der beiden Orientierungsmethoden führt zu keiner sichtlichen Verbesserung der Trajektorie, weil die Ausgangsdaten bereits ein sehr hohes Genauigkeitsniveau aufweisen.
Die Bündelblockausgleichungsergebnisse des zweiten Datensatzes sind - wahrscheinlich durch Bewegungsunschärfe verursacht - um einen Faktor zwei ungenauer als jene des ersten. Die relative Orientierung ist präziser als beim ersten Datensatz aufgrund von geringerem Rauschen und einem höheren Bildkontrast. Die Integration der relativen Orientierung verbessert den Trajektorienfehler um einen Faktor 14 und die Präzision der äußeren Orientierung um einen Faktor 3. Da Voraussetzungen der kleinsten Quadrate Ausgleichung sowie der Varianzkomponentenschätzung nicht erfüllt sind, dürfen diese Ergebnisse nicht unreflektiert übernommen werden.
Obwohl grobe Fehler entfernt und systematische Fehler in den Distanzbeobachtungen berücksichtigt werden, entspricht die Verteilung der Verbesserungen nicht einer Normalverteilung. Auch die geschätzte Kamera-Trajektorie zeigt, dass noch systematische Fehler in den Distanzen enthalten sind.
Automatisierte hydrologische Korrektur von Oberflächenmodellen aus IRS P5 Stereodaten
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2014
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Fernerkundung wurde im Bereich hydrologischer und hydraulischer Fragestellungen bereits in mehreren Projekten als Datenquelle etabliert. Die Modellierung hydrologischer Phänomene erfordert geo- und hydromorphologische Kenntnisse über das Bearbeitungsgebiet, welche generell über Höhenmodelle (insbesondere Geländemodelle) bereitgestellt werden können. Der günstigen Methode, Höheninformation als Oberflächenmodell über Verfahren der digitalen Photogrammetrie auf Basis stereoskopischer Methoden zu gewinnen, steht der Umstand gegenüber, dass neben der benötigten Geländeinformation ebenso geomorphologisch irrelevante Objekthöhen von Vegetation oder Bebauung erhoben werden. Oberflächenmodelle benötigen eine Weiterverarbeitung zur Eliminierung dieser Zusatzinformation, welche aufwendig und fehleranfällig und daher schwer zu automatisieren ist. In dieser Arbeit wird eine Methodik vorgestellt, welche Gewässersysteme in IRS P5 Oberflächenmodellen auf Grundlage hochauflösender IRS P5 Orthobilder, multispektraler Landsatdaten und SRTM Geländemodellen nach hydrologischen Kriterien automatisiert korrigiert, ohne dass eine Konvertierung zu einem Geländemodell notwendig ist. Hydrologische Korrektur bedeutet in diesem Zusammenhang, dass für Fließgewässer entsprechend des Geländes eine Fließrichtung mit korrespondierendem Gradienten bestimmt wird. Hierbei werden die Höhenwerte, die die Wasseroberfläche eines Flusslaufs in einem Oberflächenmodell darstellen, analog zur Fließrichtung und des Umgebungsgeländes abgestuft, so dass ein korrektes Fließverhalten eingehalten werden kann. Das Korrekturverfahren basiert auf drei Verarbeitungsschritten. Zuerst werden über Index- und Ratiobildung Wasserbereiche über die Infrarotbänder der Landsatdaten klassifiziert und über SRTM abgeleitete Hangneigungsklassen plausibilisiert. Die gewonnenen Wassermasken entsprechen mit einer Auflösung von 30 m nicht den hochaufgelösten Oberflächenmodellen mit 5 m. Aufgrund dessen erhöht im zweiten Schritt ein Schärfungsverfahren sowohl die Auflösung als auch den Informationsgehalt der Wassermasken. Die Schärfung basiert einerseits auf der Segmentierung von Orthobildern und andererseits auf der Analyse des Überlappungsgrades dieser Segmente mit der 30 m Wassermaske, so dass ab einem definierten Mindestüberlappungsgrades das entsprechende Segment als Gewässer klassifiziert wird. Auf diese Weise wird nicht nur die Auflösung erhöht, sondern die Gewässerklassifikation passt sich an das Orthobild an, woraufhin infolgedessen eine ideale Übereinstimmung der Klassifikation mit dem Oberflächenmodell erreicht wird. Der dritte Bearbeitungsschritt umfasst das hydrologische Korrekturverfahren, bei welchem zuverlässige Uferhöhen als Stützpunkte definiert werden und entlang einer Flussmittellinie nach abgeleiteter Fließrichtung und Gradienten korrigiert werden. Die berichtigten Höhenwerte entlang der Flussmittellinie dienen einem Region Growing Verfahren in Form von Seedpunkten als Grundlage, so dass die Höhenwerte an die komplexe Geometrie der geschärften Wassermaske angepasst und in das Oberflächenmodell übertragen werden können. Das Resultat ist ein Oberflächenmodell mit hydrologisch korrigierten Höhenwerten in den zuvor als Gewässer klassifizierten Bereichen. Zuletzt werden die Ergebnisse an drei unterschiedlichen Testgebieten evaluiert und die Stärken und Schwächen dieses Verfahrens ausgelotet, wobei gezeigt wird wie leistungsfähig und adaptiv die Prozessierung ist. Insbesondere bei einer guten Qualität der Wassermaske kann gezeigt werden wie zuverlässig die automatische Höhenkorrektur arbeitet, wohingegen sich Fehler aufgrund des konsekutiven Projektaufbaus leicht fortsetzen können.
Fernerkundung wurde im Bereich hydrologischer und hydraulischer Fragestellungen bereits in mehreren Projekten als Datenquelle etabliert. Die Modellierung hydrologischer Phänomene erfordert geo- und hydromorphologische Kenntnisse über das Bearbeitungsgebiet, welche generell über Höhenmodelle (insbesondere Geländemodelle) bereitgestellt werden können. Der günstigen Methode, Höheninformation als Oberflächenmodell über Verfahren der digitalen Photogrammetrie auf Basis stereoskopischer Methoden zu gewinnen, steht der Umstand gegenüber, dass neben der benötigten Geländeinformation ebenso geomorphologisch irrelevante Objekthöhen von Vegetation oder Bebauung erhoben werden. Oberflächenmodelle benötigen eine Weiterverarbeitung zur Eliminierung dieser Zusatzinformation, welche aufwendig und fehleranfällig und daher schwer zu automatisieren ist. In dieser Arbeit wird eine Methodik vorgestellt, welche Gewässersysteme in IRS P5 Oberflächenmodellen auf Grundlage hochauflösender IRS P5 Orthobilder, multispektraler Landsatdaten und SRTM Geländemodellen nach hydrologischen Kriterien automatisiert korrigiert, ohne dass eine Konvertierung zu einem Geländemodell notwendig ist. Hydrologische Korrektur bedeutet in diesem Zusammenhang, dass für Fließgewässer entsprechend des Geländes eine Fließrichtung mit korrespondierendem Gradienten bestimmt wird. Hierbei werden die Höhenwerte, die die Wasseroberfläche eines Flusslaufs in einem Oberflächenmodell darstellen, analog zur Fließrichtung und des Umgebungsgeländes abgestuft, so dass ein korrektes Fließverhalten eingehalten werden kann. Das Korrekturverfahren basiert auf drei Verarbeitungsschritten. Zuerst werden über Index- und Ratiobildung Wasserbereiche über die Infrarotbänder der Landsatdaten klassifiziert und über SRTM abgeleitete Hangneigungsklassen plausibilisiert. Die gewonnenen Wassermasken entsprechen mit einer Auflösung von 30 m nicht den hochaufgelösten Oberflächenmodellen mit 5 m. Aufgrund dessen erhöht im zweiten Schritt ein Schärfungsverfahren sowohl die Auflösung als auch den Informationsgehalt der Wassermasken. Die Schärfung basiert einerseits auf der Segmentierung von Orthobildern und andererseits auf der Analyse des Überlappungsgrades dieser Segmente mit der 30 m Wassermaske, so dass ab einem definierten Mindestüberlappungsgrades das entsprechende Segment als Gewässer klassifiziert wird. Auf diese Weise wird nicht nur die Auflösung erhöht, sondern die Gewässerklassifikation passt sich an das Orthobild an, woraufhin infolgedessen eine ideale Übereinstimmung der Klassifikation mit dem Oberflächenmodell erreicht wird. Der dritte Bearbeitungsschritt umfasst das hydrologische Korrekturverfahren, bei welchem zuverlässige Uferhöhen als Stützpunkte definiert werden und entlang einer Flussmittellinie nach abgeleiteter Fließrichtung und Gradienten korrigiert werden. Die berichtigten Höhenwerte entlang der Flussmittellinie dienen einem Region Growing Verfahren in Form von Seedpunkten als Grundlage, so dass die Höhenwerte an die komplexe Geometrie der geschärften Wassermaske angepasst und in das Oberflächenmodell übertragen werden können. Das Resultat ist ein Oberflächenmodell mit hydrologisch korrigierten Höhenwerten in den zuvor als Gewässer klassifizierten Bereichen. Zuletzt werden die Ergebnisse an drei unterschiedlichen Testgebieten evaluiert und die Stärken und Schwächen dieses Verfahrens ausgelotet, wobei gezeigt wird wie leistungsfähig und adaptiv die Prozessierung ist. Insbesondere bei einer guten Qualität der Wassermaske kann gezeigt werden wie zuverlässig die automatische Höhenkorrektur arbeitet, wohingegen sich Fehler aufgrund des konsekutiven Projektaufbaus leicht fortsetzen können.
Robuste Ausgleichung geodätischer Netzmessungen - Ein Vergleich von vier Ansätzen
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2014
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil, Univ.Ass. Dipl.-Math. Franz-Benjamin Mocnik
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil, Univ.Ass. Dipl.-Math. Franz-Benjamin Mocnik
Kurzfassung/Abstract
Nicht erst seit der automatisierten Aufnahme und Verarbeitung von Messdaten haben robuste Verfahren in vielen naturwissenschaftlichen Fachgebieten einen hohen Stellenwert. Sie zeichnen sich durch ihre Fähigkeit aus, grobe Fehler zu lokalisieren und deren Einfluss zu reduzieren oder zu eliminieren. Vor allem die vorwiegende Nutzung der Methode der kleinsten Quadrate als zentrales geodätisches Auswertekonzept, welches Ausreißer nicht detektieren und den dadurch entstehenden Fehler nicht minimieren kann, erfordert die zusätzliche Verwendung von robusten Schätzern.
Die vorliegende Arbeit widmet sich vier robusten Methoden (L1-Norm, Biber-Schätzer, RANSAC und LTS) und erörtert sie unter Zuhilfenahme von terrestrischen Netzmessungen. Neben den mathematischen Hintergründen wird die Implementierung der Algorithmen in Matlab behandelt. Den Schwerpunkt bildet die Ermittlung der Grenzen und Möglichkeiten jeder der vier robusten Methoden hinsichtlich der Aufdeckbarkeit von groben Fehlern und den Auswirkungen auf das Schätzergebnis. In diesem Zusammenhang werden grobe Fehler simuliert und in das Datenmaterial eingebracht. Des Weiteren wird der Einfluss der sukzessiven Reduktion der Gesamtredundanz untersucht.
Durch die Bewertung aller Verfahren wird eine Hilfestellung für zukünftige Anwendungen im Bereich der robusten Schätzung gegeben.
Nicht erst seit der automatisierten Aufnahme und Verarbeitung von Messdaten haben robuste Verfahren in vielen naturwissenschaftlichen Fachgebieten einen hohen Stellenwert. Sie zeichnen sich durch ihre Fähigkeit aus, grobe Fehler zu lokalisieren und deren Einfluss zu reduzieren oder zu eliminieren. Vor allem die vorwiegende Nutzung der Methode der kleinsten Quadrate als zentrales geodätisches Auswertekonzept, welches Ausreißer nicht detektieren und den dadurch entstehenden Fehler nicht minimieren kann, erfordert die zusätzliche Verwendung von robusten Schätzern.
Die vorliegende Arbeit widmet sich vier robusten Methoden (L1-Norm, Biber-Schätzer, RANSAC und LTS) und erörtert sie unter Zuhilfenahme von terrestrischen Netzmessungen. Neben den mathematischen Hintergründen wird die Implementierung der Algorithmen in Matlab behandelt. Den Schwerpunkt bildet die Ermittlung der Grenzen und Möglichkeiten jeder der vier robusten Methoden hinsichtlich der Aufdeckbarkeit von groben Fehlern und den Auswirkungen auf das Schätzergebnis. In diesem Zusammenhang werden grobe Fehler simuliert und in das Datenmaterial eingebracht. Des Weiteren wird der Einfluss der sukzessiven Reduktion der Gesamtredundanz untersucht.
Durch die Bewertung aller Verfahren wird eine Hilfestellung für zukünftige Anwendungen im Bereich der robusten Schätzung gegeben.
SSR basierte automatisierte GNSS Datenprozessierung
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Fabian Hinterberger
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Fabian Hinterberger
Kurzfassung/Abstract
Heute ist es mit Hilfe der GNSS (Global Navigation Satellite Systems) einer breiten Nutzeranzahl möglich, auf globaler, regionaler und lokaler Ebene eine cm-genaue präzise Punktbestimmung durchzuführen. Diese hohen Genauigkeiten sind aktuell nur mit dem Differenzverfahren, welches die Beobachtungsdaten national betriebener aktiver Referenzstationsnetze nutzt, zu erreichen. Die verschiedenen Referenznetzbetreiber bieten kommerziell sowohl die Beobachtungsdaten der einzelnen Stationen für das Nachprozessieren als auch Korrekturdaten für Echtzeitanwendungen an. In den letzten Jahren finden sich immer mehr Dienste, welche es den Nutzern ermöglichen ihre Messdaten an einen Server zu senden und nach wenigen Minuten die ermittelte Position sowie ein Berechnungsprotokoll zu erhalten. Die Berechnung in der Zentrale basiert entweder auf einer Basislinienlösung oder es werden sogenannte PPP-Techniken (Precise Point Positioning) angewendet, welche die aus den Referenznetzdaten ermittelten Fehlermodelle für die Einzelpunktbestimmung des Rovers nützen (State Space Representation - SSR).
In dieser Arbeit wurde nun der vom österreichischen Referenznetzbetreiber EPOSA (Echtzeit Positionierung Austria) angebotene Postprocessingservice "`SSRPOST"' getestet. Zu diesem Zweck wurden im Großraum Wien statische und kinematische Testmessungen durchgeführt. Bei der Auswertung wurden die Auswirkung von unterschiedlichen Beobachtungszeiten und Datenraten sowie die Stabilität der Koordinaten ermittelt. Zusätzlich behandelt die Arbeit die Qualität der Transformation der Positionierungen vom globalen Referenzrahmen in das Landessystem behandelt. Abschließend wurde der "`SSRPOST"' Service mit einem ähnlichen kanadischen PPP Dienst verglichen. Eine Liste mit Empfehlungen und Tipps für die Nutzung von "SSRPOST"beschließt diese Arbeit.
Heute ist es mit Hilfe der GNSS (Global Navigation Satellite Systems) einer breiten Nutzeranzahl möglich, auf globaler, regionaler und lokaler Ebene eine cm-genaue präzise Punktbestimmung durchzuführen. Diese hohen Genauigkeiten sind aktuell nur mit dem Differenzverfahren, welches die Beobachtungsdaten national betriebener aktiver Referenzstationsnetze nutzt, zu erreichen. Die verschiedenen Referenznetzbetreiber bieten kommerziell sowohl die Beobachtungsdaten der einzelnen Stationen für das Nachprozessieren als auch Korrekturdaten für Echtzeitanwendungen an. In den letzten Jahren finden sich immer mehr Dienste, welche es den Nutzern ermöglichen ihre Messdaten an einen Server zu senden und nach wenigen Minuten die ermittelte Position sowie ein Berechnungsprotokoll zu erhalten. Die Berechnung in der Zentrale basiert entweder auf einer Basislinienlösung oder es werden sogenannte PPP-Techniken (Precise Point Positioning) angewendet, welche die aus den Referenznetzdaten ermittelten Fehlermodelle für die Einzelpunktbestimmung des Rovers nützen (State Space Representation - SSR).
In dieser Arbeit wurde nun der vom österreichischen Referenznetzbetreiber EPOSA (Echtzeit Positionierung Austria) angebotene Postprocessingservice "`SSRPOST"' getestet. Zu diesem Zweck wurden im Großraum Wien statische und kinematische Testmessungen durchgeführt. Bei der Auswertung wurden die Auswirkung von unterschiedlichen Beobachtungszeiten und Datenraten sowie die Stabilität der Koordinaten ermittelt. Zusätzlich behandelt die Arbeit die Qualität der Transformation der Positionierungen vom globalen Referenzrahmen in das Landessystem behandelt. Abschließend wurde der "`SSRPOST"' Service mit einem ähnlichen kanadischen PPP Dienst verglichen. Eine Liste mit Empfehlungen und Tipps für die Nutzung von "SSRPOST"beschließt diese Arbeit.
Ausgewählte Analyse der Qualität von OSM Daten im alpinen Raum
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Dipl.-Ing. (FH) Manuela Schmidt
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Dipl.-Ing. (FH) Manuela Schmidt
Kurzfassung/Abstract
Österreich ist ein Wanderparadies. Es gibt unzählige Almen und Gipfel, welche täglich Menschen in die Berge ziehen. Zahlreiche Online-Portale nutzen Webkarten zur Veranschaulichung von Wanderrouten. Auch bei dem Projekt OpenStreetMap (OSM), welches Geodaten frei zur Verfügung stellt, sind Wanderwege, Schutzhütten, usw. ein fixer Bestandteil der Daten. Im Rahmen dieser Arbeit sollen Parameter zur Ermittlung der Qualität von OSM-Daten im alpinen Raum erhoben werden. Um dieses Ziel zu erreichen werden OSM-Daten mit einem kommerziellen Referenzdatensatz, den Daten der Freytag-Berndt und Artaria KG (F&B), innerhalb von fünf Testregionen verglichen. Es wird die Vollständigkeit von Wanderwegen, Gewässern, Schutzhütten und Gipfeln sowie die Lagegenauigkeit mit einem 25 Meter Puffer, zur Überprüfung der Vollständigkeit der Wanderwegen und Gewäassern bestimmt. Verglichen mit den Referenzdaten zeigen die OSM-Daten eine sehr gute Abdeckung der alpinen Wege und Pfade. In vier der fünf Testregionen ist die Vollständigkeit größer oder gleich 95%. Zieht man zur Berechnung der Übereinstimmung die herausfallenden Wege ab, ergibt sich ein mittlerer Wert von 85%. Bei den Gewässern ergeben sich eine Vollständigkeit von 69% und eine Übereinstimmung von 55%. Erfreulich ist die komplette Abdeckung (100%) der Schutzhütten in allen Testregionen. Bei der Kategorie Gipfel deutet der Trend auf eine 80%ige Abdeckung hin. Im letzten Abschnitt der Arbeit werden noch weitere offene Fragen bzw. Forschungsfelder diskutiert.
Österreich ist ein Wanderparadies. Es gibt unzählige Almen und Gipfel, welche täglich Menschen in die Berge ziehen. Zahlreiche Online-Portale nutzen Webkarten zur Veranschaulichung von Wanderrouten. Auch bei dem Projekt OpenStreetMap (OSM), welches Geodaten frei zur Verfügung stellt, sind Wanderwege, Schutzhütten, usw. ein fixer Bestandteil der Daten. Im Rahmen dieser Arbeit sollen Parameter zur Ermittlung der Qualität von OSM-Daten im alpinen Raum erhoben werden. Um dieses Ziel zu erreichen werden OSM-Daten mit einem kommerziellen Referenzdatensatz, den Daten der Freytag-Berndt und Artaria KG (F&B), innerhalb von fünf Testregionen verglichen. Es wird die Vollständigkeit von Wanderwegen, Gewässern, Schutzhütten und Gipfeln sowie die Lagegenauigkeit mit einem 25 Meter Puffer, zur Überprüfung der Vollständigkeit der Wanderwegen und Gewäassern bestimmt. Verglichen mit den Referenzdaten zeigen die OSM-Daten eine sehr gute Abdeckung der alpinen Wege und Pfade. In vier der fünf Testregionen ist die Vollständigkeit größer oder gleich 95%. Zieht man zur Berechnung der Übereinstimmung die herausfallenden Wege ab, ergibt sich ein mittlerer Wert von 85%. Bei den Gewässern ergeben sich eine Vollständigkeit von 69% und eine Übereinstimmung von 55%. Erfreulich ist die komplette Abdeckung (100%) der Schutzhütten in allen Testregionen. Bei der Kategorie Gipfel deutet der Trend auf eine 80%ige Abdeckung hin. Im letzten Abschnitt der Arbeit werden noch weitere offene Fragen bzw. Forschungsfelder diskutiert.
Web based visualization of wind fields
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2014
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
This paper proposes an approach of implementing a web based visualization of wind fields. One of the main reasons for running this project is the fact that the "Zentralanstalt für Meteorologie und Geodynamik" in Austria, pursues the strategy to implement new web technologies in order to provide meteorological information. It deals with several questions regarding the web based visualization of wind data. Furthermore, it deals with the preparation of the data, which is necessary to extract the needed information from the GRIB (GRIdded Binary) files, which contain information regarding wind components. From these components the wind speeds and directions have to be calculated and an adequate output has to be generated, which then is used for visualizing the data on the web. In order to visualize the data appropriately the project is split up into several parts. First of all an overview about the actual state of the art is given and similar projects are evaluated in order to get an idea of how wind data and meteorological data in general can be represented on the web. A further step is the evaluation of the testdata and the definition and description of the interfaces within the system. Then the actual implementation is done, which is split up into a data preparation part and a data presentation part. The results of this project are on the one hand the presentation of the data in a static way, such that the wind situation at a certain time point is displayed. On the other hand the user has the possibility to watch the wind situation over a certain time frame via an animation. Moreover, the user can switch between two different visualization types, one is the visualization of wind speed and direction via wind barbs and one is the visualization of wind speed via colors and the direction as arrows with fixed length. The project itself depicts a proof of concept that shows how such a system that is dealing with the representation of wind data on the web might look like.
This paper proposes an approach of implementing a web based visualization of wind fields. One of the main reasons for running this project is the fact that the "Zentralanstalt für Meteorologie und Geodynamik" in Austria, pursues the strategy to implement new web technologies in order to provide meteorological information. It deals with several questions regarding the web based visualization of wind data. Furthermore, it deals with the preparation of the data, which is necessary to extract the needed information from the GRIB (GRIdded Binary) files, which contain information regarding wind components. From these components the wind speeds and directions have to be calculated and an adequate output has to be generated, which then is used for visualizing the data on the web. In order to visualize the data appropriately the project is split up into several parts. First of all an overview about the actual state of the art is given and similar projects are evaluated in order to get an idea of how wind data and meteorological data in general can be represented on the web. A further step is the evaluation of the testdata and the definition and description of the interfaces within the system. Then the actual implementation is done, which is split up into a data preparation part and a data presentation part. The results of this project are on the one hand the presentation of the data in a static way, such that the wind situation at a certain time point is displayed. On the other hand the user has the possibility to watch the wind situation over a certain time frame via an animation. Moreover, the user can switch between two different visualization types, one is the visualization of wind speed and direction via wind barbs and one is the visualization of wind speed via colors and the direction as arrows with fixed length. The project itself depicts a proof of concept that shows how such a system that is dealing with the representation of wind data on the web might look like.
A Vertical Crustal Motion Model for Alaska
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Data of 23 years of GPS measurements was used in order to create a new vertical crustal motion model for the whole of Alaska. For this purpose, measurements of 608 GPS stations were analyzed: continuously measuring stations, managed by various agencies for several fields of interest, as well as a wealth of campaign stations mounted in tectonically interesting regions.
Additionally, processed GRACE data from 10 years of gravity measurements helped principally to model the seasonal variation caused by hydrological loading effects found in Southeast and eastern Southcentral Alaska. Several statistical examinations were conducted to eventually ensure an increase in model accuracy by including the GRACE data.
The results of this study generally reveal high, GIA induced uplift in Southeast Alaska as well as viscoelastic uplift around Cook Inlet due to the subduction of the Pacific Plate. The highest uplift was detected in Glacier Bay with 34 mm/yr. The strongest subsidence (13 mm/yr) occurs at Chirikof Island south of the Alaska Peninsula, a site close to the Aleutian Megathrust. The region of Kenai Peninsula is still subject to postseismic deformation resulting from the 1964 Great Alaska earthquake with a moment magnitude 9.2. Interior Alaska exhibits smaller, regionally alternating vertical motions due to the presence of the intracontinental, strike-slip Denali Fault. Northern and western Alaska have a low level of tectonic activity, while Southwest Alaska, comprising of the Alaska Peninsula and the Aleutian Islands, feature substantial vertical velocities due to the high tectonic activity at the Aleutian Megathrust.
Subtraction of three models estimating glacial isostatic adjustment, viscoelastic relaxation following the 1964 earthquake and deformations due to the subduction zone, that is all major causes for the vertical motions, didn't explain all of the measured velocities. The remaining residuals most likely point out flaws in the used models. The post glacial rebound happening due to constant ice loss within the last 250 years is apparently not constant in time, but time-dependent. Furthermore, the GIA model may overpredict the GIA-induced uplift by regarding parts of the subduction zone induced motions as glacial isostatic adjustment. Also, it is guessed that the uplift in the subduction model is overpredicted and that furthermore errors in some campaign station data negatively influence the result.
Data of 23 years of GPS measurements was used in order to create a new vertical crustal motion model for the whole of Alaska. For this purpose, measurements of 608 GPS stations were analyzed: continuously measuring stations, managed by various agencies for several fields of interest, as well as a wealth of campaign stations mounted in tectonically interesting regions.
Additionally, processed GRACE data from 10 years of gravity measurements helped principally to model the seasonal variation caused by hydrological loading effects found in Southeast and eastern Southcentral Alaska. Several statistical examinations were conducted to eventually ensure an increase in model accuracy by including the GRACE data.
The results of this study generally reveal high, GIA induced uplift in Southeast Alaska as well as viscoelastic uplift around Cook Inlet due to the subduction of the Pacific Plate. The highest uplift was detected in Glacier Bay with 34 mm/yr. The strongest subsidence (13 mm/yr) occurs at Chirikof Island south of the Alaska Peninsula, a site close to the Aleutian Megathrust. The region of Kenai Peninsula is still subject to postseismic deformation resulting from the 1964 Great Alaska earthquake with a moment magnitude 9.2. Interior Alaska exhibits smaller, regionally alternating vertical motions due to the presence of the intracontinental, strike-slip Denali Fault. Northern and western Alaska have a low level of tectonic activity, while Southwest Alaska, comprising of the Alaska Peninsula and the Aleutian Islands, feature substantial vertical velocities due to the high tectonic activity at the Aleutian Megathrust.
Subtraction of three models estimating glacial isostatic adjustment, viscoelastic relaxation following the 1964 earthquake and deformations due to the subduction zone, that is all major causes for the vertical motions, didn't explain all of the measured velocities. The remaining residuals most likely point out flaws in the used models. The post glacial rebound happening due to constant ice loss within the last 250 years is apparently not constant in time, but time-dependent. Furthermore, the GIA model may overpredict the GIA-induced uplift by regarding parts of the subduction zone induced motions as glacial isostatic adjustment. Also, it is guessed that the uplift in the subduction model is overpredicted and that furthermore errors in some campaign station data negatively influence the result.
Konvergenzuntersuchung verschiedener Rotationsparametrisierungen bei photogrammetrischen Grundaufgaben
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2014
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Helmut Kager, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Helmut Kager, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Um aus Bildern räumliche Informationen zu extrahieren ist es nötig, die Bilder im Raum oder relativ zueinander zu orientieren. Die Orientierung wird mit Hilfe der Aufnahmeparameter und Koordinaten festgelegt. Die Aufnahmeparameter setzen sich dabei aus den inneren und äußeren Orientierungsparametern zusammen.
Die Parameter der inneren Orientierung werden, da sie „quasistatisch" sind, meist im Vorhinein durch eine Kamerakalibrierung bestimmt. Sie können jedoch auch vor Ort am Objekt bestimmt werden. Dies schlägt sich jedoch später in der Anzahl der in der Ausgleichung zu schätzenden Parametern nieder.
Dem gegenüber stehen die Parameter der äußeren Orientierung, die sich in der Regel von einem Bild zum nächsten ändern. Die Parameter der äußeren Orientierung setzen sich dabei aus einem Verschiebungsterm (Translation) und einem Rotationsterm (Drehung) zusammen. Da der Verschiebungsterm linear ist, stellt dessen Berechnung im Allgemeinen kein Problem dar.
Das größte Problem ist die Bestimmung des nichtlinearen Rotationsterms. Dieser kann in verschiedenen Parametern dargestellt bzw. beschrieben werden. Die bekannteste Parametrisierung für Rotationen stellen Winkel dar. Des Weiteren gibt es eine schier unendliche Auswahl an Möglichkeiten Rotationen zu parametrisieren. In dieser Arbeit sollen vor allem die Quaternionen-Parameter und die davon ableitbaren Cayley-Parameter untersucht und mit verschiedenen transzendenten Parametrisierungen verglichen werden. Trotz des Alters der Quaternionen werden sie bisher kaum in geodätischen Lehrbüchern erwähnt und finden allenfalls Beachtung in kleineren wissenschaftlichen Publikationen. Ihr offensichtlich großer Vorteil gegenüber den Winkeln besteht in ihrer Singularitätenfreiheit. Das heißt, aus jeder beliebigen Rotationsmatrix kann ein endlicher Satz Rotationsparameter berechnet werden. Im Fall der Quaternionen sind es immer zwei.
Neben dem Vorteil der Singularitätenfreiheit wird oft das bessere Konvergenzverhalten bei iterativen Ausgleichungsaufgaben hervorgehoben.
Da der Singularitätsvorteil allgemein bekannt ist und dafür spezielle Bilder von einem Objekt drum herum und in speziellen Lagen gemacht werden müssen, bezieht sich diese Untersuchung auf den Allgemeinfall von Bildern ohne Berechnung der inneren Orientierung. Der große Vorteil der Quaternionen vorab bleibt, dass eine Parametrisierung für alle Bildstellungen verwendet werden kann, während bei den transzendenten Parametrisierungen immer nach aero und terrestrisch unterschieden werden kann, um die Singularitäten zu umgehen. Ziel ist es nicht, ein Programm zu entwickeln das ohne Näherungswerte auskommt, sondern den Konvergenzbereich der verschiedenen Rotationsparametrisierungen im alltäglichen Gebrauch zu untersuchen und ausgehend von den Ergebnissen Aussagen zu treffen bzw. Empfehlungen zu einer der Parametrisierungen zu geben.
Um aus Bildern räumliche Informationen zu extrahieren ist es nötig, die Bilder im Raum oder relativ zueinander zu orientieren. Die Orientierung wird mit Hilfe der Aufnahmeparameter und Koordinaten festgelegt. Die Aufnahmeparameter setzen sich dabei aus den inneren und äußeren Orientierungsparametern zusammen.
Die Parameter der inneren Orientierung werden, da sie „quasistatisch" sind, meist im Vorhinein durch eine Kamerakalibrierung bestimmt. Sie können jedoch auch vor Ort am Objekt bestimmt werden. Dies schlägt sich jedoch später in der Anzahl der in der Ausgleichung zu schätzenden Parametern nieder.
Dem gegenüber stehen die Parameter der äußeren Orientierung, die sich in der Regel von einem Bild zum nächsten ändern. Die Parameter der äußeren Orientierung setzen sich dabei aus einem Verschiebungsterm (Translation) und einem Rotationsterm (Drehung) zusammen. Da der Verschiebungsterm linear ist, stellt dessen Berechnung im Allgemeinen kein Problem dar.
Das größte Problem ist die Bestimmung des nichtlinearen Rotationsterms. Dieser kann in verschiedenen Parametern dargestellt bzw. beschrieben werden. Die bekannteste Parametrisierung für Rotationen stellen Winkel dar. Des Weiteren gibt es eine schier unendliche Auswahl an Möglichkeiten Rotationen zu parametrisieren. In dieser Arbeit sollen vor allem die Quaternionen-Parameter und die davon ableitbaren Cayley-Parameter untersucht und mit verschiedenen transzendenten Parametrisierungen verglichen werden. Trotz des Alters der Quaternionen werden sie bisher kaum in geodätischen Lehrbüchern erwähnt und finden allenfalls Beachtung in kleineren wissenschaftlichen Publikationen. Ihr offensichtlich großer Vorteil gegenüber den Winkeln besteht in ihrer Singularitätenfreiheit. Das heißt, aus jeder beliebigen Rotationsmatrix kann ein endlicher Satz Rotationsparameter berechnet werden. Im Fall der Quaternionen sind es immer zwei.
Neben dem Vorteil der Singularitätenfreiheit wird oft das bessere Konvergenzverhalten bei iterativen Ausgleichungsaufgaben hervorgehoben.
Da der Singularitätsvorteil allgemein bekannt ist und dafür spezielle Bilder von einem Objekt drum herum und in speziellen Lagen gemacht werden müssen, bezieht sich diese Untersuchung auf den Allgemeinfall von Bildern ohne Berechnung der inneren Orientierung. Der große Vorteil der Quaternionen vorab bleibt, dass eine Parametrisierung für alle Bildstellungen verwendet werden kann, während bei den transzendenten Parametrisierungen immer nach aero und terrestrisch unterschieden werden kann, um die Singularitäten zu umgehen. Ziel ist es nicht, ein Programm zu entwickeln das ohne Näherungswerte auskommt, sondern den Konvergenzbereich der verschiedenen Rotationsparametrisierungen im alltäglichen Gebrauch zu untersuchen und ausgehend von den Ergebnissen Aussagen zu treffen bzw. Empfehlungen zu einer der Parametrisierungen zu geben.
Combined Processing of GPS & BeiDou Observations: An Investigation
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
In this thesis GNSS positioning techniques based on GPS and BeiDou observations have been investigated. This study focused on the potential improvement in positioning accuracy when utilizing both the L1 and L2 signals of GPS and the B1 and B2 signals of BeiDou. Although BeiDou is a new GNSS system, the IGS-MGEX project offers already precise Beidou orbit and clock correction information and therefore enables to combine observations of both systems for site data processing. The positioning accuracy obtained in three scenarios (GPS-only, Beidou-only, GPS&Beidou) has been investigated by means of a baseline and a PPP approach. In case of Double Difference (baseline) processing, the performance of the GPS-only and the combined GPS&BeiDou approach was found to be superior compared to the BeiDou-only solutions. In order to assess the positioning accuracy and convergence time in PPP, the 24-hour observation data sets and the orbit and clock corrections produced by ESA and GFZ were used. As expected the addition of BeiDou constellation data improved the satellite availability and the PDOP values. Based on the results the ESA Beidou and GPS orbit and clock correction data seems to be more consistent than the GFZ correction data within the investigated periods. On the other hand, the Beidou-only positioning improved in quality when preferring the GFZ corrections compared to the ESA corrections. While the position accuracy does not improve largely when using combined GPS&Beidou observation data compared to GPS-only, the convergence times of the vertical coordinate could be significantly reduced. Although the BeiDou constellation is not fully operational yet, the main advantage of processing combined observations was the tremendous increase in service availability especially for users at locations in the Asia-Pacific area.
In this thesis GNSS positioning techniques based on GPS and BeiDou observations have been investigated. This study focused on the potential improvement in positioning accuracy when utilizing both the L1 and L2 signals of GPS and the B1 and B2 signals of BeiDou. Although BeiDou is a new GNSS system, the IGS-MGEX project offers already precise Beidou orbit and clock correction information and therefore enables to combine observations of both systems for site data processing. The positioning accuracy obtained in three scenarios (GPS-only, Beidou-only, GPS&Beidou) has been investigated by means of a baseline and a PPP approach. In case of Double Difference (baseline) processing, the performance of the GPS-only and the combined GPS&BeiDou approach was found to be superior compared to the BeiDou-only solutions. In order to assess the positioning accuracy and convergence time in PPP, the 24-hour observation data sets and the orbit and clock corrections produced by ESA and GFZ were used. As expected the addition of BeiDou constellation data improved the satellite availability and the PDOP values. Based on the results the ESA Beidou and GPS orbit and clock correction data seems to be more consistent than the GFZ correction data within the investigated periods. On the other hand, the Beidou-only positioning improved in quality when preferring the GFZ corrections compared to the ESA corrections. While the position accuracy does not improve largely when using combined GPS&Beidou observation data compared to GPS-only, the convergence times of the vertical coordinate could be significantly reduced. Although the BeiDou constellation is not fully operational yet, the main advantage of processing combined observations was the tremendous increase in service availability especially for users at locations in the Asia-Pacific area.
Radiometrische Kalibrierung von Distanzmesskameras
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Wilfried Karel
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Wilfried Karel
Kurzfassung/Abstract
Distanzkameras sind in der Lage, in jedem Bildpunkt (Pixel) simultan Distanz und Amplitude aufgrund der Laufzeit eines ausgesandten Signals zu bestimmen. Diese Technologie vereint einige Vorteile von klassischen Messverfahren aus der Photogrammetrie und der Fernerkundung (z.B. Laserscanning, Auswertung von Bildern). Eine Limitierung ist die Genauigkeit der Distanzmessung, die verglichen mit anderen Geodätischen Messverfahren im Nahbereich (Zehner-Meter-Bereich) relativ niedrig ist. Ein wichtiger Indikator für die Distanzmessgenauigkeit ist die Amplitude, sie wird aus denselben Messdaten abgeleitet, aus denen auch die Distanz errechnet wird. Weiters kann bei kalibrierten Amplituden, gemeinsam mit den Distanzbeobachtungen, die (richtungsabhängige) Reflektivität der Objektoberfläche bestimmt werden. Die Reflektivität wiederum kann verwendet werden, um den Objektraum zu segmentieren bzw. um Objekte zu erkennen.
Diese Arbeit beschreibt die Kalibrierung der Amplitude anhand der Distanzkamera Swissranger 3000. Es wurde nach Materialien gesucht, die sich als Kalibriertafeln eignen, d.h. plan sind und das Licht möglichst diffus reflektieren. Um die gewünschte diffuse Reflektivität zu erreichen wurde Kreidespray verwendet. Es wurde ein Kalibrierfeld erstellt, welches aus fünf Styrodurplatten bestand, die mit unterschiedlichen Farben besprüht wurden, um unterschiedliche Reflektivitätswerte zu erhalten. Um Referenzwerte hoher Genauigkeit zu erhalten, wurden die Reflektivitäten der einzelnen Tafeln mit einem Spektroradiometer gemessen. Mittels eines, rund um die Tafeln angebrachten, Festpunktfeldes wurde die Orientierung der Kamera indirekt bestimmt. Damit war es möglich, die Objektdistanzen mit hoher Qualität abzuleiten und die Positionen der Tafeln in den Bildern eindeutig zu bestimmen. Im Rahmen dieser Arbeit werden die Schritte beschrieben, die nötig sind, um ein Differenzmodel zwischen den Soll-Amplituden und den mit der Distanzkamera gemessenen Amplituden zu erstellen. Danach wurde eine Kalibrierfunktion bestimmt, die das Differenzmodell beschreibt. Die Funktion besteht aus mehreren Termen, die verschieden Effekten zugeordnet werden können. Die Validierung der Kalibrierfunktion erfolgt visuell mittels Grafiken, die den Einfluss der unterschiedlichen Kalibrierterme zeigen.
Distanzkameras sind in der Lage, in jedem Bildpunkt (Pixel) simultan Distanz und Amplitude aufgrund der Laufzeit eines ausgesandten Signals zu bestimmen. Diese Technologie vereint einige Vorteile von klassischen Messverfahren aus der Photogrammetrie und der Fernerkundung (z.B. Laserscanning, Auswertung von Bildern). Eine Limitierung ist die Genauigkeit der Distanzmessung, die verglichen mit anderen Geodätischen Messverfahren im Nahbereich (Zehner-Meter-Bereich) relativ niedrig ist. Ein wichtiger Indikator für die Distanzmessgenauigkeit ist die Amplitude, sie wird aus denselben Messdaten abgeleitet, aus denen auch die Distanz errechnet wird. Weiters kann bei kalibrierten Amplituden, gemeinsam mit den Distanzbeobachtungen, die (richtungsabhängige) Reflektivität der Objektoberfläche bestimmt werden. Die Reflektivität wiederum kann verwendet werden, um den Objektraum zu segmentieren bzw. um Objekte zu erkennen.
Diese Arbeit beschreibt die Kalibrierung der Amplitude anhand der Distanzkamera Swissranger 3000. Es wurde nach Materialien gesucht, die sich als Kalibriertafeln eignen, d.h. plan sind und das Licht möglichst diffus reflektieren. Um die gewünschte diffuse Reflektivität zu erreichen wurde Kreidespray verwendet. Es wurde ein Kalibrierfeld erstellt, welches aus fünf Styrodurplatten bestand, die mit unterschiedlichen Farben besprüht wurden, um unterschiedliche Reflektivitätswerte zu erhalten. Um Referenzwerte hoher Genauigkeit zu erhalten, wurden die Reflektivitäten der einzelnen Tafeln mit einem Spektroradiometer gemessen. Mittels eines, rund um die Tafeln angebrachten, Festpunktfeldes wurde die Orientierung der Kamera indirekt bestimmt. Damit war es möglich, die Objektdistanzen mit hoher Qualität abzuleiten und die Positionen der Tafeln in den Bildern eindeutig zu bestimmen. Im Rahmen dieser Arbeit werden die Schritte beschrieben, die nötig sind, um ein Differenzmodel zwischen den Soll-Amplituden und den mit der Distanzkamera gemessenen Amplituden zu erstellen. Danach wurde eine Kalibrierfunktion bestimmt, die das Differenzmodell beschreibt. Die Funktion besteht aus mehreren Termen, die verschieden Effekten zugeordnet werden können. Die Validierung der Kalibrierfunktion erfolgt visuell mittels Grafiken, die den Einfluss der unterschiedlichen Kalibrierterme zeigen.
3D Kataster Initiativen im internationalen Vergleich
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2014
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Mit der Tatsache, dass es immer mehr Menschen in die Städte zieht und somit Grund und Boden immer intensiver genutzt werden, gewinnt die digitale 3D Darstellung zunehmend an Bedeutung. Sowohl die Entwicklung von vertikalen Konstruktionen als auch die Nutzung des Untergrundes in den Megacitys dieser Welt fordert die Anpassung der Katastersysteme. Der traditionelle Kataster wird noch immer in 2D Parzellen geführt. Nur mit Hilfe von 3D Zusatzinformationen können Rechte in den unterschiedlichsten Situationen eingetragen werden.
Die digitale Datenerfassung hat die Messtechnik grundlegend verändert, so dass heute bereits in vielen Städten flächendeckende digitale Höhen- und Gebäudemodelle existieren. Diese Daten könnten zur Realisierung eines 3D Katasters genutzt werden.
Aus diesen Gründen hat sich eine internationale Arbeitsgruppe gebildet. Diese soll durch Austausch und Diskussionen von Ideen, Erfahrungen im Bereich 3D Kataster sammeln, um diese für zukünftige Projekte nutzen zu können.
Einige Staaten (Schweden, Israel, Bahrain) führen bereits hybride Systeme und haben ihre Erfahrung damit gemacht. Ob und wie ein 3D Kataster in Österreich einzuführen ist soll diskutiert werden.
Mit der Tatsache, dass es immer mehr Menschen in die Städte zieht und somit Grund und Boden immer intensiver genutzt werden, gewinnt die digitale 3D Darstellung zunehmend an Bedeutung. Sowohl die Entwicklung von vertikalen Konstruktionen als auch die Nutzung des Untergrundes in den Megacitys dieser Welt fordert die Anpassung der Katastersysteme. Der traditionelle Kataster wird noch immer in 2D Parzellen geführt. Nur mit Hilfe von 3D Zusatzinformationen können Rechte in den unterschiedlichsten Situationen eingetragen werden.
Die digitale Datenerfassung hat die Messtechnik grundlegend verändert, so dass heute bereits in vielen Städten flächendeckende digitale Höhen- und Gebäudemodelle existieren. Diese Daten könnten zur Realisierung eines 3D Katasters genutzt werden.
Aus diesen Gründen hat sich eine internationale Arbeitsgruppe gebildet. Diese soll durch Austausch und Diskussionen von Ideen, Erfahrungen im Bereich 3D Kataster sammeln, um diese für zukünftige Projekte nutzen zu können.
Einige Staaten (Schweden, Israel, Bahrain) führen bereits hybride Systeme und haben ihre Erfahrung damit gemacht. Ob und wie ein 3D Kataster in Österreich einzuführen ist soll diskutiert werden.
Regressionskoeffizienten für atmosphärische Auflasteffekte aus der VLBI
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Dr. Hana Krasna
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Dr. Hana Krasna
Kurzfassung/Abstract
In dieser Arbeit wird die Atmosphärenkorrektur anhand a priori bestimmter Regressionskoeffizienten aus atmosphärischen Auflasteffekten näher betrachtet. Der Luftdruck in der Atmosphäre wirkt auf die Erdoberfläche in Form von Auflast. Variiert der Luftdruck, wirkt sich dies auf die Erdkruste in Form von Deformationen aus. Die durch die Auflasteffekte hervorgerufenen Deformationen können bis zu 3 cm in radialer Richtung betragen. Der Zusammenhang von Luftdruck und den atmosphärischen Auflasteffekten kann durch Regressionskoeffizienten ausgedrückt werden. Aufgrund des Einflusses der Auflasteffekte auf die Erdkruste wird in der Arbeit unter anderem untersucht, ob eine Atmosphärenkorrektur anhand von a priori bestimmten Regressionskoeffizienten in einer globalen VLBI - Lösung Verbesserungen in den Ergebnissen liefert. Des Weiteren beschäftigt sich diese Arbeit mit der Untersuchung der saisonalen Variation von Luftdruck und Auflasteffekten und damit verbunden der Regressionskoeffizienten. Für viele VLBI - Stationen wird dabei die saisonale Variation der Regressionskoeffizienten sehr deutlich sichtbar. Stationen mit stabiler Drucklage weisen erwartungsgemäß geringe Variationen auf. Der Einfluss der saisonalen Auflasteffekte auf den Schwerpunkt des VLBI - Stationsnetzwerkes wird ebenso untersucht. Die Ergebnisse der globalen Lösungen werden anhand von Stationskoordinaten und Basislinienwiederholbarkeiten betrachtet. Die Lösung mit Atmosphärenkorrektur anhand von a priori Regressionskoeffizienten und die Lösung mit einer Atmosphärenkorrektur anhand von Korrekturen des NASA Goddard Space Flight Center (GSFC) und intern geschätzten Regressionskoeffizienten werden verglichen mit einer Lösung mit intern geschätzten Regressionskoeffizienten ohne GSFC - Atmosphärenkorrektur. Die Untersuchung der Basislinienwiederholbarkeiten zeigt, dass eine Atmosphärenkorrektur anhand von a priori Regressionskoeffizienten nicht für alle Stationen Verbesserungen gegenüber den anderen Lösungen mit sich bringt. Es zeigt sich, dass eine globale Lösung mit GSFC - Atmosphärenkorrektur für den Großteil der Basislinien kleinere Wiederholbarkeiten als eine Lösung ohne GSFC - Atmosphärenkorrektur liefert. Ebenso kann festgehalten werden, dass eine globale Lösung mit Atmosphärenkorrektur aus a priori geschätzten Regressionskoeffizienten hinsichtlich der Wiederholbarkeiten auch bessere Ergebnisse liefert als die Lösung ohne Atmosphärenkorrektur.
In dieser Arbeit wird die Atmosphärenkorrektur anhand a priori bestimmter Regressionskoeffizienten aus atmosphärischen Auflasteffekten näher betrachtet. Der Luftdruck in der Atmosphäre wirkt auf die Erdoberfläche in Form von Auflast. Variiert der Luftdruck, wirkt sich dies auf die Erdkruste in Form von Deformationen aus. Die durch die Auflasteffekte hervorgerufenen Deformationen können bis zu 3 cm in radialer Richtung betragen. Der Zusammenhang von Luftdruck und den atmosphärischen Auflasteffekten kann durch Regressionskoeffizienten ausgedrückt werden. Aufgrund des Einflusses der Auflasteffekte auf die Erdkruste wird in der Arbeit unter anderem untersucht, ob eine Atmosphärenkorrektur anhand von a priori bestimmten Regressionskoeffizienten in einer globalen VLBI - Lösung Verbesserungen in den Ergebnissen liefert. Des Weiteren beschäftigt sich diese Arbeit mit der Untersuchung der saisonalen Variation von Luftdruck und Auflasteffekten und damit verbunden der Regressionskoeffizienten. Für viele VLBI - Stationen wird dabei die saisonale Variation der Regressionskoeffizienten sehr deutlich sichtbar. Stationen mit stabiler Drucklage weisen erwartungsgemäß geringe Variationen auf. Der Einfluss der saisonalen Auflasteffekte auf den Schwerpunkt des VLBI - Stationsnetzwerkes wird ebenso untersucht. Die Ergebnisse der globalen Lösungen werden anhand von Stationskoordinaten und Basislinienwiederholbarkeiten betrachtet. Die Lösung mit Atmosphärenkorrektur anhand von a priori Regressionskoeffizienten und die Lösung mit einer Atmosphärenkorrektur anhand von Korrekturen des NASA Goddard Space Flight Center (GSFC) und intern geschätzten Regressionskoeffizienten werden verglichen mit einer Lösung mit intern geschätzten Regressionskoeffizienten ohne GSFC - Atmosphärenkorrektur. Die Untersuchung der Basislinienwiederholbarkeiten zeigt, dass eine Atmosphärenkorrektur anhand von a priori Regressionskoeffizienten nicht für alle Stationen Verbesserungen gegenüber den anderen Lösungen mit sich bringt. Es zeigt sich, dass eine globale Lösung mit GSFC - Atmosphärenkorrektur für den Großteil der Basislinien kleinere Wiederholbarkeiten als eine Lösung ohne GSFC - Atmosphärenkorrektur liefert. Ebenso kann festgehalten werden, dass eine globale Lösung mit Atmosphärenkorrektur aus a priori geschätzten Regressionskoeffizienten hinsichtlich der Wiederholbarkeiten auch bessere Ergebnisse liefert als die Lösung ohne Atmosphärenkorrektur.
Untersuchung der radiometrischen Qualität digitaler Orthophotos
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Jansa
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Jansa
Kurzfassung/Abstract
Die Ansprüche an digitale Orthophotos haben sich in den letzten Jahren verändert. Heutzutage wird an sie nicht mehr nur die Forderung gestellt, die dargestellte Szene visuell ansprechend wiederzugeben. Es sollen darüber hinaus Folgeprodukte abgeleitet und eine automatische Klassifizierung durchgeführt werden können. Kritisch im Hinblick auf diese neuen Aufgabenfelder ist die in den digitalen Orthophotos enthaltene Radiometrie. Die vorliegende Arbeit setzt sich zum Ziel, Erfahrungen über das Verhalten der Radiometrie digitaler Orthophotos zu gewinnen und Beurteilungskriterien zu entwickeln, anhand derer fundierte Aussagen über die enthaltene radiometrische Qualität getroffen werden können. Den Mittelpunkt dieser Diplomarbeit bilden daher auf Basis vorhandener digitaler Orthophotomosaike entwickelte Methoden, die eine objektive und konsistente Beurteilung der Radiometrie ermöglichen. Diese Methoden werden in der vorliegenden Diplomarbeit ausführlich erläutert und ihre Möglichkeiten und Grenzen geschildert. Der Echtfarbbereich (Rot-, Grün-, Blau-Kombination =RGB-Bereich) und der nahe Infrarotkanal (NIR) werden dabei getrennt voneinander analysiert. Während die Methode des RGB-Bereichs anhand von grauen, befestigten Flächen die Homogenität und Ausgewogenheit des Datenmaterials aufzuzeigen vermag, besteht das Hauptkriterium der Analyse des NIR-Bereichs darin, Aussagen über die Trennbarkeit von Vegetation und Nicht-Vegetation mit Hilfe des NDVIs für eine nachfolgende Klassifizierung treffen zu können. Weiters wird untersucht ob es möglich ist, anhand der vorliegenden Daten und durchgeführten empirischen Untersuchungen Empfehlungen zu formulieren, welche Schwellwerte bei der Beurteilung digitaler Orthophotomosaike eingehalten werden sollen. Es wurde darauf geachtet, dass die Aussagen über die Qualität bzw. die Eignung zur Klassifizierung anhand einiger weniger Kennwerte erfolgen kann, um die empfohlenen Methoden abgesehen von darauf aufbauenden wissenschaftlichen Untersuchungen auch für den praktischen Gebrauch attraktiv zu machen. Da die Beurteilung von digitalen Orthophotomosaiken ein sehr komplexes und umfangreiches Gebiet darstellt sind die vorgestellten Beurteilungsmethoden und deren Schwellwerte generell als Empfehlungen zu verstehen, die nach dem derzeitigen Wissensstand und auf Basis vorhandener Daten verfasst wurden. Durch künftige Untersuchungen mit weiteren Daten können die Beurteilungskriterien vermutlich weiter verfeinert werden.
Die Ansprüche an digitale Orthophotos haben sich in den letzten Jahren verändert. Heutzutage wird an sie nicht mehr nur die Forderung gestellt, die dargestellte Szene visuell ansprechend wiederzugeben. Es sollen darüber hinaus Folgeprodukte abgeleitet und eine automatische Klassifizierung durchgeführt werden können. Kritisch im Hinblick auf diese neuen Aufgabenfelder ist die in den digitalen Orthophotos enthaltene Radiometrie. Die vorliegende Arbeit setzt sich zum Ziel, Erfahrungen über das Verhalten der Radiometrie digitaler Orthophotos zu gewinnen und Beurteilungskriterien zu entwickeln, anhand derer fundierte Aussagen über die enthaltene radiometrische Qualität getroffen werden können. Den Mittelpunkt dieser Diplomarbeit bilden daher auf Basis vorhandener digitaler Orthophotomosaike entwickelte Methoden, die eine objektive und konsistente Beurteilung der Radiometrie ermöglichen. Diese Methoden werden in der vorliegenden Diplomarbeit ausführlich erläutert und ihre Möglichkeiten und Grenzen geschildert. Der Echtfarbbereich (Rot-, Grün-, Blau-Kombination =RGB-Bereich) und der nahe Infrarotkanal (NIR) werden dabei getrennt voneinander analysiert. Während die Methode des RGB-Bereichs anhand von grauen, befestigten Flächen die Homogenität und Ausgewogenheit des Datenmaterials aufzuzeigen vermag, besteht das Hauptkriterium der Analyse des NIR-Bereichs darin, Aussagen über die Trennbarkeit von Vegetation und Nicht-Vegetation mit Hilfe des NDVIs für eine nachfolgende Klassifizierung treffen zu können. Weiters wird untersucht ob es möglich ist, anhand der vorliegenden Daten und durchgeführten empirischen Untersuchungen Empfehlungen zu formulieren, welche Schwellwerte bei der Beurteilung digitaler Orthophotomosaike eingehalten werden sollen. Es wurde darauf geachtet, dass die Aussagen über die Qualität bzw. die Eignung zur Klassifizierung anhand einiger weniger Kennwerte erfolgen kann, um die empfohlenen Methoden abgesehen von darauf aufbauenden wissenschaftlichen Untersuchungen auch für den praktischen Gebrauch attraktiv zu machen. Da die Beurteilung von digitalen Orthophotomosaiken ein sehr komplexes und umfangreiches Gebiet darstellt sind die vorgestellten Beurteilungsmethoden und deren Schwellwerte generell als Empfehlungen zu verstehen, die nach dem derzeitigen Wissensstand und auf Basis vorhandener Daten verfasst wurden. Durch künftige Untersuchungen mit weiteren Daten können die Beurteilungskriterien vermutlich weiter verfeinert werden.
Monte Carlo Simulation for the evaluation of routing results concerning their spatial variation and distribution
Studiengang Intelligent Transportation Systems, Fachhochschule Technikum Wien, 2013
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil, Dipl.-Ing. MSc Hans Fiby, ITS Vienna Region
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil, Dipl.-Ing. MSc Hans Fiby, ITS Vienna Region
Kurzfassung/Abstract
In der heutigen Zeit gibt es eine Vielzahl von unterschiedlichen Routenplanern und -Applikationen für alle Verkehrsmodi, welche die Berechnung des optimalen Weges für Quell- Ziel Relationen ermöglichen. Für den Motorisierten Individualverkehr basiert die Berechnung dieser optimalen Route meist auf der kürzesten angenommenen Reisezeit. Bei klassischen Routing-Algorithmen werden hierbei die Reisegeschwindigkeiten bzw. -zeiten als deterministisch angenommen. Diese deterministische Herangehensweise ermöglicht eine effiziente und performante Routenberechnung, vernachlässigt jedoch den Umstand, dass die tatsächlichen Reisegeschwindigkeiten nicht mit Sicherheit vorhergesagt werden können, da diese von unterschiedlichen Faktoren wie beispielsweise der aktuellen Verkehrsstärke, Wetterbedingung oder sonstigen Ereignissen abhängig sind.
Ziel dieser Arbeit ist es, die Auswirkungen auf die räumliche Verteilung und Variation von Routen-Ergebnissen zu untersuchen, wenn bei den angenommenen Reisegeschwindigkeiten, für die Berechnung der Route, Varianzen berücksichtigt und die Geschwindigkeiten somit als Zufallsvariablen modelliert werden, wobei der Randomisierung eine bestimmte Geschwindigkeitsverteilung zugrunde liegt. Dieser Ansatz kann dazu führen, dass das Ergebnis der Routen-Berechnung nicht mehr eindeutig ist, sondern mehrere Routen zurückgegeben werden, welche den optimalen Weg mit einer bestimmten Wahrscheinlichkeit repräsentieren.
Für die Analyse der erwähnten Aspekte wurde eine Monte Carlo Simulation auf Basis eines Kürzeste-Wege-Algorithmus implementiert. Bei dieser Simulation, welche zu den quantitativen Analysemethoden zu zählen ist, wird der zugrundeliegende Prozess mehrere tausend Mal ausgeführt. Das Ergebnis der Simulation in dieser Arbeit ist ein Routenbündel, das aus tausenden von "optimalen" Wegen für eine bestimmte Quell-Ziel Relation besteht, wobei die Reisegeschwindigkeiten für jede Iteration der Routenberechnung neu und zufällig gewählt werden. Dieses Routenbündel zeigt die räumliche Verteilung der zurückgegebenen Routenergebnisse.
Des Weiteren wurde im Rahmen dieser Arbeit ein Prozess entwickelt, der es ermöglicht Repräsentanten aus diesem Routenbündel zu extrahieren, die somit unterschiedliche Routenalternativen darstellen. Außerdem werden mehrere Indikatoren präsentiert, die eine Bewertung der räumlichen Verteilung sowohl von den extrahierten Routenvarianten als auch vom gesamten Routenbündel ermöglichen und die Ergebnisse somit vergleichbar machen.
In der heutigen Zeit gibt es eine Vielzahl von unterschiedlichen Routenplanern und -Applikationen für alle Verkehrsmodi, welche die Berechnung des optimalen Weges für Quell- Ziel Relationen ermöglichen. Für den Motorisierten Individualverkehr basiert die Berechnung dieser optimalen Route meist auf der kürzesten angenommenen Reisezeit. Bei klassischen Routing-Algorithmen werden hierbei die Reisegeschwindigkeiten bzw. -zeiten als deterministisch angenommen. Diese deterministische Herangehensweise ermöglicht eine effiziente und performante Routenberechnung, vernachlässigt jedoch den Umstand, dass die tatsächlichen Reisegeschwindigkeiten nicht mit Sicherheit vorhergesagt werden können, da diese von unterschiedlichen Faktoren wie beispielsweise der aktuellen Verkehrsstärke, Wetterbedingung oder sonstigen Ereignissen abhängig sind.
Ziel dieser Arbeit ist es, die Auswirkungen auf die räumliche Verteilung und Variation von Routen-Ergebnissen zu untersuchen, wenn bei den angenommenen Reisegeschwindigkeiten, für die Berechnung der Route, Varianzen berücksichtigt und die Geschwindigkeiten somit als Zufallsvariablen modelliert werden, wobei der Randomisierung eine bestimmte Geschwindigkeitsverteilung zugrunde liegt. Dieser Ansatz kann dazu führen, dass das Ergebnis der Routen-Berechnung nicht mehr eindeutig ist, sondern mehrere Routen zurückgegeben werden, welche den optimalen Weg mit einer bestimmten Wahrscheinlichkeit repräsentieren.
Für die Analyse der erwähnten Aspekte wurde eine Monte Carlo Simulation auf Basis eines Kürzeste-Wege-Algorithmus implementiert. Bei dieser Simulation, welche zu den quantitativen Analysemethoden zu zählen ist, wird der zugrundeliegende Prozess mehrere tausend Mal ausgeführt. Das Ergebnis der Simulation in dieser Arbeit ist ein Routenbündel, das aus tausenden von "optimalen" Wegen für eine bestimmte Quell-Ziel Relation besteht, wobei die Reisegeschwindigkeiten für jede Iteration der Routenberechnung neu und zufällig gewählt werden. Dieses Routenbündel zeigt die räumliche Verteilung der zurückgegebenen Routenergebnisse.
Des Weiteren wurde im Rahmen dieser Arbeit ein Prozess entwickelt, der es ermöglicht Repräsentanten aus diesem Routenbündel zu extrahieren, die somit unterschiedliche Routenalternativen darstellen. Außerdem werden mehrere Indikatoren präsentiert, die eine Bewertung der räumlichen Verteilung sowohl von den extrahierten Routenvarianten als auch vom gesamten Routenbündel ermöglichen und die Ergebnisse somit vergleichbar machen.
Development of a web map for a traditional map publishing company
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Mit der Einführung des online-Kartendienstes GoogleMaps im Jahr 2005 hat sich der Umgang mit interaktiven webbasierten Kartendiensten verändert [Schmidt und Weiser 2012]. Das Potential dieser sogenannten "web maps" ist enorm und sie werden in sehr vielen Bereichen des täglichen Lebens, zum Beispiel zur Routenplanung, genutzt.
Im Zuge dieser Masterarbeit wird die Entwicklung einer "web map" für einen traditionellen Kartenverlag diskutiert. Hauptaugenmerk liegt hierbei auf der Frage wie eine solche "web map" auszusehen hat und welchen Inhalt sie haben soll. Diese "web map" soll grundlegende Funktionalitäten und eine Bestellfunktion für gedrucktes Kartenmaterial besitzen. Es wird hierbei auf dem Arbeitsablauf von der Idee bis hin zum fertigen Produkt näher eingegangen.
Um herauszufinden was die Anforderungen der Nutzer einer solchen "web map" sind wird als erstes eine online-Umfrage unter den Kunden eines Kartenverlages durchgeführt, bei der besonders auf den möglichen Inhalt der "base map" eingegangen wird. Mit dem Ergebnis der Umfrage und zusätzlichen Optimierungen im Bereich Design wird das Konzept für die "web map" erarbeitet. Mit Hilfe von Richtlinien für optimale website Benutzerfreundlichkeit, die speziell für diese Anwendung entwickelt werden, wird das Konzept näher umschrieben.
Anschließend wird aus Sicht des Verlages, dem Entwickler und der Nutzer besprochen wie eine solche "web map" entwickelt wird. Dabei werden die Möglichkeiten für den Verlag, die technischen Aspekte die der Entwickler zu beachten hat und die Anforderungen für den Nutzer aufgezeigt. Das Endprodukt soll bestmöglich den Anforderungen von möglichen Nutzern entsprechen und einen gehobenen Qualitätsstandard besitzen.
Mit der Einführung des online-Kartendienstes GoogleMaps im Jahr 2005 hat sich der Umgang mit interaktiven webbasierten Kartendiensten verändert [Schmidt und Weiser 2012]. Das Potential dieser sogenannten "web maps" ist enorm und sie werden in sehr vielen Bereichen des täglichen Lebens, zum Beispiel zur Routenplanung, genutzt.
Im Zuge dieser Masterarbeit wird die Entwicklung einer "web map" für einen traditionellen Kartenverlag diskutiert. Hauptaugenmerk liegt hierbei auf der Frage wie eine solche "web map" auszusehen hat und welchen Inhalt sie haben soll. Diese "web map" soll grundlegende Funktionalitäten und eine Bestellfunktion für gedrucktes Kartenmaterial besitzen. Es wird hierbei auf dem Arbeitsablauf von der Idee bis hin zum fertigen Produkt näher eingegangen.
Um herauszufinden was die Anforderungen der Nutzer einer solchen "web map" sind wird als erstes eine online-Umfrage unter den Kunden eines Kartenverlages durchgeführt, bei der besonders auf den möglichen Inhalt der "base map" eingegangen wird. Mit dem Ergebnis der Umfrage und zusätzlichen Optimierungen im Bereich Design wird das Konzept für die "web map" erarbeitet. Mit Hilfe von Richtlinien für optimale website Benutzerfreundlichkeit, die speziell für diese Anwendung entwickelt werden, wird das Konzept näher umschrieben.
Anschließend wird aus Sicht des Verlages, dem Entwickler und der Nutzer besprochen wie eine solche "web map" entwickelt wird. Dabei werden die Möglichkeiten für den Verlag, die technischen Aspekte die der Entwickler zu beachten hat und die Anforderungen für den Nutzer aufgezeigt. Das Endprodukt soll bestmöglich den Anforderungen von möglichen Nutzern entsprechen und einen gehobenen Qualitätsstandard besitzen.
Calibration of space-borne Scatterometers: Towards a consistent climate data record for Soil Moisture Retrieval
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Higher level scatterometer products, such as surface soil moisture and wind vector fields became an important input dataset for climate change research. For this reason an accurate radiometric calibration of space-borne scatterometers is needed by the scientific community to establish a long-term consistent climate data record. Accordingly a novel radiometric calibration methodology is developed with the objective to achieve a consistent calibration of the European scatterometer mission onboard of the European Remote-Sensing Satellite (ERS) and the Meteorological Operational Platform (MetOp). The introduced calibration method is a stepwise relative calibration approach by making use of applicable extended area land-targets. A set of appropriate extended area calibration targets is determined by a threshold based decision scheme using three parameters to characterise backscatter attributes of individual land-targets. Consistent calibrated backscatter coefficients throughout a specific scatterometer mission are achieved by conducting sensor intra-calibration. Radiometric calibration deficiencies are explored in individual antenna beams of ERS-2 AMI-WS and MetOp-A ASCAT revealing deviations to a defined calibration reference in the order of 0.2 dB for AMI-WS and 0.1 dB for ASCAT respectively. Similarities in the instrument technical design of AMI-WS and ASCAT encourage a merging of these European scatterometer missions. As a consequence, a second calibration methodology is introduced on top of sensor intra-calibration, with the objective to identify possible differences in the radiometric calibration levels of the two scatterometer missions, referred to as sensor inter-calibration. Differences in the calibration levels of AMI-WS and ASCAT are found to reveal biases ranging from 0.39 dB to -0.08 dB. The capability of the developed stepwise calibration methodology to correct for such calibration related deficiencies is demonstrated by the use of independent verification targets. Taking advantage of the developed stepwise calibration methodology will result in along-term consistent calibrated European scatterometer data archive comprising more than 30 years of global data.
Higher level scatterometer products, such as surface soil moisture and wind vector fields became an important input dataset for climate change research. For this reason an accurate radiometric calibration of space-borne scatterometers is needed by the scientific community to establish a long-term consistent climate data record. Accordingly a novel radiometric calibration methodology is developed with the objective to achieve a consistent calibration of the European scatterometer mission onboard of the European Remote-Sensing Satellite (ERS) and the Meteorological Operational Platform (MetOp). The introduced calibration method is a stepwise relative calibration approach by making use of applicable extended area land-targets. A set of appropriate extended area calibration targets is determined by a threshold based decision scheme using three parameters to characterise backscatter attributes of individual land-targets. Consistent calibrated backscatter coefficients throughout a specific scatterometer mission are achieved by conducting sensor intra-calibration. Radiometric calibration deficiencies are explored in individual antenna beams of ERS-2 AMI-WS and MetOp-A ASCAT revealing deviations to a defined calibration reference in the order of 0.2 dB for AMI-WS and 0.1 dB for ASCAT respectively. Similarities in the instrument technical design of AMI-WS and ASCAT encourage a merging of these European scatterometer missions. As a consequence, a second calibration methodology is introduced on top of sensor intra-calibration, with the objective to identify possible differences in the radiometric calibration levels of the two scatterometer missions, referred to as sensor inter-calibration. Differences in the calibration levels of AMI-WS and ASCAT are found to reveal biases ranging from 0.39 dB to -0.08 dB. The capability of the developed stepwise calibration methodology to correct for such calibration related deficiencies is demonstrated by the use of independent verification targets. Taking advantage of the developed stepwise calibration methodology will result in along-term consistent calibrated European scatterometer data archive comprising more than 30 years of global data.
A Cartographic Approach to Spatio-temporal Data Visualization of Events in Visual Analytics Applications
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner mit PennState University, USA
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner mit PennState University, USA
Kurzfassung/Abstract
The increasing importance of Visual Analytics, particularly in response to the advent of "big data", calls for greater attention to maps in analytic tools and applications. While maps provide a familiar, understandable interface to underlying data, not enough has been done in the field of Visual Analytics to advance the design and usage of maps. This study explores the development of map components within multi-view applications using multivariate and zoom-level dependent representations of news event data. Integrated in the system with a timeline, a word cloud and other view components, we consider the traditional "rules" of cartography as well as aspects of human-computer interaction and interactive design research. This allows users to efficiently explore complex spatiotemporal data. Our approach was validated by re-developing the mapping component inside STempo, a project developed at the GeoVISTA Center, Pennsylvania State University. We found that the application of cartographic precepts to our spatio-temporal map visualizations aided in the development of more useful visual analytic mapping tools.
The increasing importance of Visual Analytics, particularly in response to the advent of "big data", calls for greater attention to maps in analytic tools and applications. While maps provide a familiar, understandable interface to underlying data, not enough has been done in the field of Visual Analytics to advance the design and usage of maps. This study explores the development of map components within multi-view applications using multivariate and zoom-level dependent representations of news event data. Integrated in the system with a timeline, a word cloud and other view components, we consider the traditional "rules" of cartography as well as aspects of human-computer interaction and interactive design research. This allows users to efficiently explore complex spatiotemporal data. Our approach was validated by re-developing the mapping component inside STempo, a project developed at the GeoVISTA Center, Pennsylvania State University. We found that the application of cartographic precepts to our spatio-temporal map visualizations aided in the development of more useful visual analytic mapping tools.
Documentation of Road Maintenance via Android Application
Studiengang Intelligent Transportation Systems, Fachhochschule Technikum Wien, 2014
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil, Dipl.-Ing. (FH) Matthias Kastner
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil, Dipl.-Ing. (FH) Matthias Kastner
Kurzfassung/Abstract
The purpose of this study is to discuss the concept of using a Smartphone application GPS based (e.g. an Android application) to prove that an organisation responsible for road maintenance fulfilled their duties (any kind of road maintenance such as Signs, Signals & Striping, and Potholes/Asphalt Breaking Up). In case of a legal issue against the Road Maintenance Company, they can show recorded data of their operations to the courtroom. The positioning capabilities will be used to obtain the tracks, which are then stored in a suitable database such as PostGIS. Apart from the purely technical implementation, the study also discusses issues like availability of data and accuracy for urban area. It shows how such a system can be implemented.
The purpose of this study is to discuss the concept of using a Smartphone application GPS based (e.g. an Android application) to prove that an organisation responsible for road maintenance fulfilled their duties (any kind of road maintenance such as Signs, Signals & Striping, and Potholes/Asphalt Breaking Up). In case of a legal issue against the Road Maintenance Company, they can show recorded data of their operations to the courtroom. The positioning capabilities will be used to obtain the tracks, which are then stored in a suitable database such as PostGIS. Apart from the purely technical implementation, the study also discusses issues like availability of data and accuracy for urban area. It shows how such a system can be implemented.
Bestimmung von Schwerefeldgrößen für ingenieurgeodätische Anwendungen im Gebiet Montafon
Institut für Navigation, Technische Universität Graz, 2014
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Im Zuge dieser Diplomarbeit wurden Lotabweichungsmessungen sowie GPS- Messungen durchgeführt. Die Messungen werden für eine neue Berechnung des Geoids im Montafon von den Vorarlberger Illwerken verwendet. Die neue Berechnung des Geoids wird mit den bereits vorhandenen Modellen verglichen. Das neue Geoid wird durch die Messung von Lotabweichungen verbessert. Lotabweichungen lassen sich entweder direkt im Feld messen, können aber auch aufgrund von Massen- und Geländemodellen berechnet werden. Die Lotabweichungsmessungen wurden mithilfe des Instruments Qdaedalus gemessen. Das Instrument ist eine Entwicklung des Instituts für Geodäsie und Photogrammetrie der ETH Zürich. Die gravimetrischen Lotabweichungen wurden mittels der Vening Meinesz Integrationsformel berechnet. Die Komponenten der Lotabweichungen sind sowohl für die physikalische Geodäsie als auch für die Ingenieurgeodäsie von Bedeutung. Für zahlreiche wichtige Aufgabe der Ingenieurgeodäsie wie z.B. der Vortriebskontrolle von Tunneln.
Im Zuge dieser Diplomarbeit wurden Lotabweichungsmessungen sowie GPS- Messungen durchgeführt. Die Messungen werden für eine neue Berechnung des Geoids im Montafon von den Vorarlberger Illwerken verwendet. Die neue Berechnung des Geoids wird mit den bereits vorhandenen Modellen verglichen. Das neue Geoid wird durch die Messung von Lotabweichungen verbessert. Lotabweichungen lassen sich entweder direkt im Feld messen, können aber auch aufgrund von Massen- und Geländemodellen berechnet werden. Die Lotabweichungsmessungen wurden mithilfe des Instruments Qdaedalus gemessen. Das Instrument ist eine Entwicklung des Instituts für Geodäsie und Photogrammetrie der ETH Zürich. Die gravimetrischen Lotabweichungen wurden mittels der Vening Meinesz Integrationsformel berechnet. Die Komponenten der Lotabweichungen sind sowohl für die physikalische Geodäsie als auch für die Ingenieurgeodäsie von Bedeutung. Für zahlreiche wichtige Aufgabe der Ingenieurgeodäsie wie z.B. der Vortriebskontrolle von Tunneln.
Grundstücksschaffung - Vergleich des Österreichischen und Schwedischen Systems
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2014
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil, Dr. Jesper Paasch, Lantmäteriet
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil, Dr. Jesper Paasch, Lantmäteriet
Kurzfassung/Abstract
Die wichtigsten Institutionen in der Grundstücksschaffung sind das Grundbuch und der Kataster. In Österreich wird das Grundbuch von den Bezirksgerichten und der Kataster von den Vermessungsämtern geführt. In Schweden hingegen werden diese beiden Institutionen seit 2008 von einer einzigen Behörde, der schwedischen Kataster, Kartographie und Grundbuchsbehörde (Lantmäteriet), geführt.
Diese Zusammenlegung verändert die Komplexität des Verfahrens der Grundstücksschaffung. Durch einen Vergleich der Systeme in den beiden Ländern sollen mögliche Verbesserungen durch eine solche Zusammenlegung ermittelt werden. Zudem soll das Verfahren der Grundstücksschaffung im Allgemeinen auf Unterschiede im Verfahren, bei der Verfahrensdauer und bei den Kosten für das Verfahren untersucht werden.
Anfangs wird ein Überblick über das Grundbuch und den Kataster, mit allen zuständigen Behörden und der relevanten Gesetzgebung, in Österreich wie in Schweden gegeben. Vertiefend wird dann auf das Verfahren der Grundstücksschaffung im Allgemeinen eingegangen. Für die detaillierte Analyse der beiden Systeme wird eine Fallstudie einer Grundstücksschaffung erstellt. Dieses fiktive, jedoch realistische Praxisbeispiel gewährleistet die gleichen Voraussetzungen in beiden Systemen. In Österreich gestaltet sich das Verfahren aufgrund unterschiedlicher Gesetze in jedem Bundesland anders. Durch das Fallbeispiel kann auf regionale Unterschiede im Verfahren eingegangen werden.
Aus der Analyse der Fallstudie können folgende Schlüsse gezogen werden: Die Zusammenlegung von Kataster und Grundbuch in der vorliegenden Form bringt noch keinen Vorteil. Die zuständigen Behörden wurden zwar in einer übergeordneten Behörde zusammengefasst, die Führung unterliegt aber weiterhin zwei unterschiedlichen Abteilungen innerhalb dieser Behörde. Diese Abteilungen besitzen eine unterschiedliche Zahl an Sitzen und unterschiedliche Personen sind mit deren Führung betraut.
Wird das gesamte Verfahren der Grundstücksschaffung betrachtet, weist keines der Systeme einen Vorteil in Bezug auf die Komplexität auf. In einzelnen Teilschritten des Verfahrens sind jedoch in beiden Systemen Vor- bzw. Nachteile zu erkennen. Ein zunächst vermuteter Vorteil des schwedischen Systems aufgrund eines wesentlich geringeren bürokratischen Aufwands kann nicht bestätigt werden. Die Verfahrensdauer ist für die einzelnen Schritte des Verfahrens in beiden Systemen gleich. In Schweden muss jedoch eine Einspruchsfrist von vier Wochen eingehalten werden. Dadurch ergibt sich eine längere gesamte Verfahrensdauer im schwedischen System. In Bezug auf die Kosten bringt das schwedische System einen eindeutigen Vorteil für die Grundeigentümer. Die Kosten für das Verfahren der Grundstücksschaffung, als auch die Steuer für den Grunderwerb sind hier wesentlich geringer als in Österreich.
Die wichtigsten Institutionen in der Grundstücksschaffung sind das Grundbuch und der Kataster. In Österreich wird das Grundbuch von den Bezirksgerichten und der Kataster von den Vermessungsämtern geführt. In Schweden hingegen werden diese beiden Institutionen seit 2008 von einer einzigen Behörde, der schwedischen Kataster, Kartographie und Grundbuchsbehörde (Lantmäteriet), geführt.
Diese Zusammenlegung verändert die Komplexität des Verfahrens der Grundstücksschaffung. Durch einen Vergleich der Systeme in den beiden Ländern sollen mögliche Verbesserungen durch eine solche Zusammenlegung ermittelt werden. Zudem soll das Verfahren der Grundstücksschaffung im Allgemeinen auf Unterschiede im Verfahren, bei der Verfahrensdauer und bei den Kosten für das Verfahren untersucht werden.
Anfangs wird ein Überblick über das Grundbuch und den Kataster, mit allen zuständigen Behörden und der relevanten Gesetzgebung, in Österreich wie in Schweden gegeben. Vertiefend wird dann auf das Verfahren der Grundstücksschaffung im Allgemeinen eingegangen. Für die detaillierte Analyse der beiden Systeme wird eine Fallstudie einer Grundstücksschaffung erstellt. Dieses fiktive, jedoch realistische Praxisbeispiel gewährleistet die gleichen Voraussetzungen in beiden Systemen. In Österreich gestaltet sich das Verfahren aufgrund unterschiedlicher Gesetze in jedem Bundesland anders. Durch das Fallbeispiel kann auf regionale Unterschiede im Verfahren eingegangen werden.
Aus der Analyse der Fallstudie können folgende Schlüsse gezogen werden: Die Zusammenlegung von Kataster und Grundbuch in der vorliegenden Form bringt noch keinen Vorteil. Die zuständigen Behörden wurden zwar in einer übergeordneten Behörde zusammengefasst, die Führung unterliegt aber weiterhin zwei unterschiedlichen Abteilungen innerhalb dieser Behörde. Diese Abteilungen besitzen eine unterschiedliche Zahl an Sitzen und unterschiedliche Personen sind mit deren Führung betraut.
Wird das gesamte Verfahren der Grundstücksschaffung betrachtet, weist keines der Systeme einen Vorteil in Bezug auf die Komplexität auf. In einzelnen Teilschritten des Verfahrens sind jedoch in beiden Systemen Vor- bzw. Nachteile zu erkennen. Ein zunächst vermuteter Vorteil des schwedischen Systems aufgrund eines wesentlich geringeren bürokratischen Aufwands kann nicht bestätigt werden. Die Verfahrensdauer ist für die einzelnen Schritte des Verfahrens in beiden Systemen gleich. In Schweden muss jedoch eine Einspruchsfrist von vier Wochen eingehalten werden. Dadurch ergibt sich eine längere gesamte Verfahrensdauer im schwedischen System. In Bezug auf die Kosten bringt das schwedische System einen eindeutigen Vorteil für die Grundeigentümer. Die Kosten für das Verfahren der Grundstücksschaffung, als auch die Steuer für den Grunderwerb sind hier wesentlich geringer als in Österreich.
Direkte Georeferenzierung von uLFZ-Luftbildern entlang linearer Infrastrukturobjekte
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Christian Briese
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Christian Briese
Kurzfassung/Abstract
Durch die technologische Weiterentwicklung, Minituarisierung und kostengünstigere Herstellung von Sensoren wie GNSS-Empfänger, inertiale Messeinheiten (Drehraten- und Beschleunigungssensoren), Magnetometer und Barometer werden unbemannte Luftfahrzeuge (uLFZ, engl. unmanned aerial vehicles - UAV) für die Nahbereichsluftbildphotogrammetrie immer häufiger verwendet. Eine Lücke zwischen herkömmlichen terrestrischen Messmethoden und aufwändigen bemannten Luftbild-Flugmissionen könnte so eventuell geschlossen werden. Unter der Verwendung eines uLFZ des Herstellers twins.nrn wurden Untersuchungen zur direkten Georeferenzierung von uLFZ-Luftbildern, d.h. der Bestimmung der Position und der Orientierung von Fotos im 3D-Raum (äußere Orientierung), vorgenommen. Das primäre Ziel der Arbeit war, die bisherigen Arbeiten der Forschungsgruppe Photogrammetrie am Department für Geodäsie und Geoinformation an der Technischen Universität Wien weiterzuführen und die bisher erreichten Genauigkeiten der direkten Georeferenzierung zu steigern. Durch die Implementierung eines Zweifrequenz-GPS-Empfängers am uLFZ sollten die Aufnahmepositionen der Luftbilder zu den Aufnahmezeitpunkten im Bereich von wenigen Zentimetern bestimmt werden können. Der Vorteil der direkten Georeferenzierung liegt im Verzicht oder zumindest bei der Reduktion von Passpunkten am Boden, die vor allem im unwegsamen Gelände oder in bewaldeten Gebieten aufwendig zu bestimmen sind. Zur Vermeidung des Deformationsverhaltens größerer Bildblöcke unter Verwendung von wenigen Passpunkten, können die Parameter der äußeren Orientierung außerdem als zusätzliche Beobachtungen im Bündelblockausgleich eingeführt werden. Die Einsatzmöglichkeit eines uLFZ und die Verwendung der direkten Georeferenzierung bei linearen Infrastrukturobjekten stellte das zweite Ziel der Arbeit dar. Aus diesem Grund und der Kooperation mit der ÖBB-Infrastruktur AG, Stab Forschung und Entwicklung und Stab Vermessung und Datenmanagement, wurde diese Möglichkeit anhand eines Trassenabschnittes einer Eisenbahnstrecke in Herzogenburg (NÖ), in Flughöhen von 40m und 70m getestet. Für die Integration der synchronisierten Messdaten wurde ein erweitertes Kalman-Filter eingesetzt, das neben den Parametern der direkten Georeferenzierung auch die Biase der Sensoren der inertialen Messeinheit mitschätzt. Die Qualität der hier erprobten Methode konnte durch die Differenzbildung der Positionen und Orientierungen zwischen direkt und über Passpunkte indirekt georeferenzierten Luftbildern verifiziert werden. Die daraus resultierenden einfachen Standardabweichungen der Differenzen zwischen direkter und indirekter Georeferenzierung nehmen bei beiden Flügen für den Roll- und Nick-Winkel <1°, für den Yaw-Winkel <2° und für die Lage- und Höhenkoordinate <3cm an. Die Auswirkungen der erreichbaren Genauigkeit der direkten Georeferenzierung auf Objektpunkte am Boden wurden anschließend diskutiert. Hier wurde gezeigt, dass sich Unsicherheiten der inneren Orientierung des Kamerasystems zum Teil stark auf die Koordinaten der Objektpunkte auswirken und mit Differenzen von bis zu 12cm in der Lage und 45cm in der Höhe zu rechnen ist. Die Berücksichtigung von wenigen Passpunkten im Bündelblockausgleich brachte eine deutliche Reduktion der Differenzen und es konnten Standardabweichungen in Lage und Höhe von <2cm erreicht werden. Im Hinblick auf hohe Genauigkeitsanforderungen wurden die indirekt georeferenzierten Luftbilder für die photogrammetrische Auswertung von Objekten am Boden herangezogen und mit Daten einer terrestrischen Vermessung der Senftner Vermessung ZT GmbH verglichen. Dieser Vergleich zeigte, dass Auswertungen von Gleisen u.a. Objekten mit einer einfachen Standardabweichung von 1-2cm möglich sind. Als Nebenprodukt der photogrammetrischen Auswertung konnte ein hochauflösendes Orthophoto abgeleitet werden, das sich für Dokumentations- oder Planungszwecke eignen kann. Nach einer kurzen Einleitung werden im zweiten Kapitel Infrastrukturobjekte im Allgemeinen beschrieben, bevor aufgrund der Kooperation mit den ÖBB näher auf Eisenbahntrassen eingegangen wird. Kapitel zwei beinhaltet ebenfalls einen Überblick von uLFZ, deren rechtlichen Rahmenbedingungen in Österreich, sowie die Beschreibung des eingesetzten uLFZ in Form eines Hexakopters. Auf die direkte Georeferenzierung, integrierte Navigationssysteme und die Verwendung der Kalman-Filterung wird im dritten Kapitel eingegangen. Die Datensynchronisation, die Kamerakalibrierung und erste Testmessungen werden im Kapitel vier beschrieben. Nach der Beschreibung des Aufnahmegebiets und der Flugplanung folgt im fünften Kapitel die Durchführung der Befliegung des Testgebiets. Im Kapitel sechs erfolgen die Auswertung der Messdaten und eine Qualitätsuntersuchung der direkten Georeferenzierung. Das siebte und letzte Kapitel fasst die vorliegende der Arbeit zusammen.
Durch die technologische Weiterentwicklung, Minituarisierung und kostengünstigere Herstellung von Sensoren wie GNSS-Empfänger, inertiale Messeinheiten (Drehraten- und Beschleunigungssensoren), Magnetometer und Barometer werden unbemannte Luftfahrzeuge (uLFZ, engl. unmanned aerial vehicles - UAV) für die Nahbereichsluftbildphotogrammetrie immer häufiger verwendet. Eine Lücke zwischen herkömmlichen terrestrischen Messmethoden und aufwändigen bemannten Luftbild-Flugmissionen könnte so eventuell geschlossen werden. Unter der Verwendung eines uLFZ des Herstellers twins.nrn wurden Untersuchungen zur direkten Georeferenzierung von uLFZ-Luftbildern, d.h. der Bestimmung der Position und der Orientierung von Fotos im 3D-Raum (äußere Orientierung), vorgenommen. Das primäre Ziel der Arbeit war, die bisherigen Arbeiten der Forschungsgruppe Photogrammetrie am Department für Geodäsie und Geoinformation an der Technischen Universität Wien weiterzuführen und die bisher erreichten Genauigkeiten der direkten Georeferenzierung zu steigern. Durch die Implementierung eines Zweifrequenz-GPS-Empfängers am uLFZ sollten die Aufnahmepositionen der Luftbilder zu den Aufnahmezeitpunkten im Bereich von wenigen Zentimetern bestimmt werden können. Der Vorteil der direkten Georeferenzierung liegt im Verzicht oder zumindest bei der Reduktion von Passpunkten am Boden, die vor allem im unwegsamen Gelände oder in bewaldeten Gebieten aufwendig zu bestimmen sind. Zur Vermeidung des Deformationsverhaltens größerer Bildblöcke unter Verwendung von wenigen Passpunkten, können die Parameter der äußeren Orientierung außerdem als zusätzliche Beobachtungen im Bündelblockausgleich eingeführt werden. Die Einsatzmöglichkeit eines uLFZ und die Verwendung der direkten Georeferenzierung bei linearen Infrastrukturobjekten stellte das zweite Ziel der Arbeit dar. Aus diesem Grund und der Kooperation mit der ÖBB-Infrastruktur AG, Stab Forschung und Entwicklung und Stab Vermessung und Datenmanagement, wurde diese Möglichkeit anhand eines Trassenabschnittes einer Eisenbahnstrecke in Herzogenburg (NÖ), in Flughöhen von 40m und 70m getestet. Für die Integration der synchronisierten Messdaten wurde ein erweitertes Kalman-Filter eingesetzt, das neben den Parametern der direkten Georeferenzierung auch die Biase der Sensoren der inertialen Messeinheit mitschätzt. Die Qualität der hier erprobten Methode konnte durch die Differenzbildung der Positionen und Orientierungen zwischen direkt und über Passpunkte indirekt georeferenzierten Luftbildern verifiziert werden. Die daraus resultierenden einfachen Standardabweichungen der Differenzen zwischen direkter und indirekter Georeferenzierung nehmen bei beiden Flügen für den Roll- und Nick-Winkel <1°, für den Yaw-Winkel <2° und für die Lage- und Höhenkoordinate <3cm an. Die Auswirkungen der erreichbaren Genauigkeit der direkten Georeferenzierung auf Objektpunkte am Boden wurden anschließend diskutiert. Hier wurde gezeigt, dass sich Unsicherheiten der inneren Orientierung des Kamerasystems zum Teil stark auf die Koordinaten der Objektpunkte auswirken und mit Differenzen von bis zu 12cm in der Lage und 45cm in der Höhe zu rechnen ist. Die Berücksichtigung von wenigen Passpunkten im Bündelblockausgleich brachte eine deutliche Reduktion der Differenzen und es konnten Standardabweichungen in Lage und Höhe von <2cm erreicht werden. Im Hinblick auf hohe Genauigkeitsanforderungen wurden die indirekt georeferenzierten Luftbilder für die photogrammetrische Auswertung von Objekten am Boden herangezogen und mit Daten einer terrestrischen Vermessung der Senftner Vermessung ZT GmbH verglichen. Dieser Vergleich zeigte, dass Auswertungen von Gleisen u.a. Objekten mit einer einfachen Standardabweichung von 1-2cm möglich sind. Als Nebenprodukt der photogrammetrischen Auswertung konnte ein hochauflösendes Orthophoto abgeleitet werden, das sich für Dokumentations- oder Planungszwecke eignen kann. Nach einer kurzen Einleitung werden im zweiten Kapitel Infrastrukturobjekte im Allgemeinen beschrieben, bevor aufgrund der Kooperation mit den ÖBB näher auf Eisenbahntrassen eingegangen wird. Kapitel zwei beinhaltet ebenfalls einen Überblick von uLFZ, deren rechtlichen Rahmenbedingungen in Österreich, sowie die Beschreibung des eingesetzten uLFZ in Form eines Hexakopters. Auf die direkte Georeferenzierung, integrierte Navigationssysteme und die Verwendung der Kalman-Filterung wird im dritten Kapitel eingegangen. Die Datensynchronisation, die Kamerakalibrierung und erste Testmessungen werden im Kapitel vier beschrieben. Nach der Beschreibung des Aufnahmegebiets und der Flugplanung folgt im fünften Kapitel die Durchführung der Befliegung des Testgebiets. Im Kapitel sechs erfolgen die Auswertung der Messdaten und eine Qualitätsuntersuchung der direkten Georeferenzierung. Das siebte und letzte Kapitel fasst die vorliegende der Arbeit zusammen.
Interoperabler webbasierter Zugriff auf heterogene Sensordaten
Institut für Geoinformation, Technische Universität Graz, 2014
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Die vorliegende Masterarbeit beschäftigt sich mit dem webbasierten Zugriff auf heterogene Sensordaten sowie dem einfachen und effizienten Austausch dieser über System- und Domänengrenzen hinweg. Den Kern der Arbeit zur Umsetzung neuer Geo-Sensor Web Ansätze bildet dabei die vom Open Geospatial Consortium (OGC) gegründete Sensor Web Enablement (SWE) Initiative, deren Ziel die Echtzeit-Integration heterogener Sensor Webs in eine Informationsinfrastruktur ist. Anhand von standardisierten Schnittstellen und Metadatenkodierungen der Initiative sollen Sensoren über das Internet auffindbar, abfragbar und steuerbar gemacht werden. Bereits heute zeigen bestehende Forschungsprojekte und Implementierungen die Möglichkeit eines operativen Einsatzes von standardisierten Geo-Sensor Netzwerken. Der vom Forschungsinstitut iSPACE gemeinsam mit der Firma SYNERGIS konzipierte Live Geography Ansatz integriert Messungen von Echtzeitdaten in eine voll standardisierte Infrastruktur und kombiniert diese mit anderen Systemen. Um eine umfangreiche Überwachung der Umwelt und ein hocheffizientes Krisenmanagement im Katastrophenfall zu gewährleisten, wurde im Zuge des Projekts Open architecture for Smart and Interoperable networks in Risk management based on In-situ Sensors (OSIRIS) eine auf Basis der OGC Standards realisierte serviceorientierte Architektur entwickelt. Das Sensor Web des Wupperverbands ist ein weiteres Beispiel für die Implementierung ausgewählter Komponenten der SWE Initiative. Eine Vielzahl an heterogenen Sensoren und Fachsystemen wird über standardisierte Schnittstellen und Datenformate in das webbasierte geographische Informationssystem FluGGS des Wupperverbands integriert. Der praktische Teil der Arbeit widmet sich der Umsetzung eines standardisierten webbasierten Zugriffs auf Echtzeitdaten und Zeitreihen des vom Wegener Center betriebenen Klimamessstationsnetzes WegenerNet sowie auf aufbereitete meteorologische Stationsdaten der Zentralanstalt für Meteorologie und Geodynamik (ZAMG). Die Implementierung beider Instanzen ist über die Sensor Observation Service (SOS) Spezifikation der SWE Initiative realisiert. Zur Konvertierung der Datenformate des WegenerNets und der ZAMG Testdaten dient eine in C++ entwickelte Applikation je Instanz.
Die vorliegende Masterarbeit beschäftigt sich mit dem webbasierten Zugriff auf heterogene Sensordaten sowie dem einfachen und effizienten Austausch dieser über System- und Domänengrenzen hinweg. Den Kern der Arbeit zur Umsetzung neuer Geo-Sensor Web Ansätze bildet dabei die vom Open Geospatial Consortium (OGC) gegründete Sensor Web Enablement (SWE) Initiative, deren Ziel die Echtzeit-Integration heterogener Sensor Webs in eine Informationsinfrastruktur ist. Anhand von standardisierten Schnittstellen und Metadatenkodierungen der Initiative sollen Sensoren über das Internet auffindbar, abfragbar und steuerbar gemacht werden. Bereits heute zeigen bestehende Forschungsprojekte und Implementierungen die Möglichkeit eines operativen Einsatzes von standardisierten Geo-Sensor Netzwerken. Der vom Forschungsinstitut iSPACE gemeinsam mit der Firma SYNERGIS konzipierte Live Geography Ansatz integriert Messungen von Echtzeitdaten in eine voll standardisierte Infrastruktur und kombiniert diese mit anderen Systemen. Um eine umfangreiche Überwachung der Umwelt und ein hocheffizientes Krisenmanagement im Katastrophenfall zu gewährleisten, wurde im Zuge des Projekts Open architecture for Smart and Interoperable networks in Risk management based on In-situ Sensors (OSIRIS) eine auf Basis der OGC Standards realisierte serviceorientierte Architektur entwickelt. Das Sensor Web des Wupperverbands ist ein weiteres Beispiel für die Implementierung ausgewählter Komponenten der SWE Initiative. Eine Vielzahl an heterogenen Sensoren und Fachsystemen wird über standardisierte Schnittstellen und Datenformate in das webbasierte geographische Informationssystem FluGGS des Wupperverbands integriert. Der praktische Teil der Arbeit widmet sich der Umsetzung eines standardisierten webbasierten Zugriffs auf Echtzeitdaten und Zeitreihen des vom Wegener Center betriebenen Klimamessstationsnetzes WegenerNet sowie auf aufbereitete meteorologische Stationsdaten der Zentralanstalt für Meteorologie und Geodynamik (ZAMG). Die Implementierung beider Instanzen ist über die Sensor Observation Service (SOS) Spezifikation der SWE Initiative realisiert. Zur Konvertierung der Datenformate des WegenerNets und der ZAMG Testdaten dient eine in C++ entwickelte Applikation je Instanz.
Überprüfung des Navigationsverhaltens in der DAVE
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Ziel der Diplomarbeit ist es, herauszufinden, in welchem Ausmaß sich das Verhalten von den Probanden in der DAVE (Definitely Affordable Virtual Environment) in Bezug auf Schätzungsaufgaben und einer Wegfindungsaufgabe im Vergleich zu den Testpersonen, die den gleichen Versuch in der Realität absolvieren, unterscheidet. Der erste Teil fasst die Forschungen und Studien, welche bis zum heutigen Zeitpunkt betrieben wurden, zusammen. Das zweite Kapitel beinhaltet das Experiment, das im Zuge dieser Arbeit durchgeführt wurde.
Im Rahmen eines Projekts des Austrian Institute of Technology wurde die Case Study "Navigationsverhalten in der virtuellen Welt DAVE" durchgeführt. Die virtuelle Welt befindet sich an der TU Graz - Inffeldgasse und wird von der Forschungsorganisation Fraunhofer Austria betrieben.
Wenn das Ergebnis dieser Studie positiv ausfällt und kein signifikanter Unterschied im Vergleich zu der REAL Gruppe und der DAVE Gruppe besteht, soll die DAVE in weiterer Folge Planungsprojekte unterstützen und die Benutzerfreundlichkeit von Großbauprojekten, wie einem Flughafen oder einem Bahnhof, testen.
Ziel der Diplomarbeit ist es, herauszufinden, in welchem Ausmaß sich das Verhalten von den Probanden in der DAVE (Definitely Affordable Virtual Environment) in Bezug auf Schätzungsaufgaben und einer Wegfindungsaufgabe im Vergleich zu den Testpersonen, die den gleichen Versuch in der Realität absolvieren, unterscheidet. Der erste Teil fasst die Forschungen und Studien, welche bis zum heutigen Zeitpunkt betrieben wurden, zusammen. Das zweite Kapitel beinhaltet das Experiment, das im Zuge dieser Arbeit durchgeführt wurde.
Im Rahmen eines Projekts des Austrian Institute of Technology wurde die Case Study "Navigationsverhalten in der virtuellen Welt DAVE" durchgeführt. Die virtuelle Welt befindet sich an der TU Graz - Inffeldgasse und wird von der Forschungsorganisation Fraunhofer Austria betrieben.
Wenn das Ergebnis dieser Studie positiv ausfällt und kein signifikanter Unterschied im Vergleich zu der REAL Gruppe und der DAVE Gruppe besteht, soll die DAVE in weiterer Folge Planungsprojekte unterstützen und die Benutzerfreundlichkeit von Großbauprojekten, wie einem Flughafen oder einem Bahnhof, testen.
Simulations of VLBI Observations with the Onsala Twin Telescope
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Prof. Dr. Rüdiger Haas
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm, Prof. Dr. Rüdiger Haas
Kurzfassung/Abstract
Der International VLBI Service for Geodesy and Astrometry (IVS) entwickelte das VLBI2010 Konzept um die Genauigkeit der geodätischen Very Long Baseline Interferometry (VLBI) auf 1 mm für Stationspositionen und 0.1 mm/Jahr für Stationsgeschwindigkeiten zu verbessern. Dafür sollen Breitbandbeobachtungen mit schnellen Teleskopen verwendet werden, sowie Zwillingsteleskope um die Atmosphäre besser bestimmen zu können. Diese gilt als limitierender Faktor der geodätischen VLBI. Einige Projekte zur Realisierung des VLBI Konzeptes wurden bereits gestartet, wie unter anderem das Onsala Twin Telescope Projekt, dessen Zielsetzung ist, ein Zwillingsteleskop in Onsala ab 2016 zu betreiben. In dieser Arbeit wurde ein globales VLBI Netzwerk geplant, simuliert und analysiert. Als Grundlage wurde das CONT11 Netzwerk gewählt, eine 15 Tage lange Kampagne, die momentan die besten geodätischen Ergebnisse liefert. Die Ergebnisse des existierenden 20 m Teleskops in Onsala und des geplanten Zwillingsteleskop in Onsala wurden auf Stationspositionen, Erdorientationsparameter, Atmosphärenparameter und Uhrenschätzungen verglichen. Eine generelle Verbesserung mit einem Zwillingsteleskop in Onsala ist erkennbar, vor allem mit einem Zwillingteleskop das kontinuierlich beobachtet und einer Strategie die 4 Quellen gleichzeitig beobachtet.
Der International VLBI Service for Geodesy and Astrometry (IVS) entwickelte das VLBI2010 Konzept um die Genauigkeit der geodätischen Very Long Baseline Interferometry (VLBI) auf 1 mm für Stationspositionen und 0.1 mm/Jahr für Stationsgeschwindigkeiten zu verbessern. Dafür sollen Breitbandbeobachtungen mit schnellen Teleskopen verwendet werden, sowie Zwillingsteleskope um die Atmosphäre besser bestimmen zu können. Diese gilt als limitierender Faktor der geodätischen VLBI. Einige Projekte zur Realisierung des VLBI Konzeptes wurden bereits gestartet, wie unter anderem das Onsala Twin Telescope Projekt, dessen Zielsetzung ist, ein Zwillingsteleskop in Onsala ab 2016 zu betreiben. In dieser Arbeit wurde ein globales VLBI Netzwerk geplant, simuliert und analysiert. Als Grundlage wurde das CONT11 Netzwerk gewählt, eine 15 Tage lange Kampagne, die momentan die besten geodätischen Ergebnisse liefert. Die Ergebnisse des existierenden 20 m Teleskops in Onsala und des geplanten Zwillingsteleskop in Onsala wurden auf Stationspositionen, Erdorientationsparameter, Atmosphärenparameter und Uhrenschätzungen verglichen. Eine generelle Verbesserung mit einem Zwillingsteleskop in Onsala ist erkennbar, vor allem mit einem Zwillingteleskop das kontinuierlich beobachtet und einer Strategie die 4 Quellen gleichzeitig beobachtet.
Entwicklung eines forstlichen Nachhaltigkeitsindikators zur Beurteilung des Aufwandes geschlägertes Holz auf die Forststraße zu bringen
Institut für Geoinformation, Technische Universität Graz, 2014
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Betreuer: Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
In der modernen Forstwirtschaft erfolgen Nutzungen vorwiegend auf Flächen, auf denen hohe Deckungsbeiträge erzielt werden können. Das sind meist flache und gut zugängliche Bereiche. Andere weniger vorteilhaft situierte Flächen werden dadurch oft vernachlässigt. Im Sinne der Nachhaltigkeit beschäftigt sich diese Arbeit mit der Erstellung eines Indikators zur Berechnung des Aufwandes der Holzernte. Dieser Bringungswiderstand ist ein abstrakter, klassifizierter und zeitlich konstanter Wert. Er setzt sich im Wesentlichen aus den zwei Faktoren Hangneigung und Entfernung zur Forststraße zusammen und ist ein theoretischer Wert, der a-priori Informationen zum Aufwand der Holzernte liefert, im Gegensatz zu den tatsächlichen Bringungskosten, die sich erst nach erfolgter Holzernte herausstellen. Mithilfe von Geoinformationssystemen und deren Werkzeugen und räumlichen Rasteranalysen wird ein Algorithmus zur Berechnung des Bringungswiderstandes entwickelt. Die Eingangsdaten dafür sind ein digitales Geländemodell als Rasterdatei und eine Forststraße als Vektordatei. Zunächst werden die verwendeten Werkzeuge, insbesondere Oberflächen- und Kostendistanzanalysen in der Theorie beschrieben. Anschließend wird in der praktischen Umsetzung auf den Algorithmus und auf die einzelnen Methoden eingegangen. Das Ergebnis dieser Arbeit ist ein Nachhaltigkeitsindikator in Form einer Rasterdatei, die den Bringungswiderstand als abstrakten Wert darstellt.
In der modernen Forstwirtschaft erfolgen Nutzungen vorwiegend auf Flächen, auf denen hohe Deckungsbeiträge erzielt werden können. Das sind meist flache und gut zugängliche Bereiche. Andere weniger vorteilhaft situierte Flächen werden dadurch oft vernachlässigt. Im Sinne der Nachhaltigkeit beschäftigt sich diese Arbeit mit der Erstellung eines Indikators zur Berechnung des Aufwandes der Holzernte. Dieser Bringungswiderstand ist ein abstrakter, klassifizierter und zeitlich konstanter Wert. Er setzt sich im Wesentlichen aus den zwei Faktoren Hangneigung und Entfernung zur Forststraße zusammen und ist ein theoretischer Wert, der a-priori Informationen zum Aufwand der Holzernte liefert, im Gegensatz zu den tatsächlichen Bringungskosten, die sich erst nach erfolgter Holzernte herausstellen. Mithilfe von Geoinformationssystemen und deren Werkzeugen und räumlichen Rasteranalysen wird ein Algorithmus zur Berechnung des Bringungswiderstandes entwickelt. Die Eingangsdaten dafür sind ein digitales Geländemodell als Rasterdatei und eine Forststraße als Vektordatei. Zunächst werden die verwendeten Werkzeuge, insbesondere Oberflächen- und Kostendistanzanalysen in der Theorie beschrieben. Anschließend wird in der praktischen Umsetzung auf den Algorithmus und auf die einzelnen Methoden eingegangen. Das Ergebnis dieser Arbeit ist ein Nachhaltigkeitsindikator in Form einer Rasterdatei, die den Bringungswiderstand als abstrakten Wert darstellt.
Analyse des globalen Geopotentialmodells EGM2008 und des Europäischen Geoids EGG08
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2014
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: a.o.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Dem Anwender aus Geodäsie, Geophysik oder Ozeanographie steht eine große Zahl an Erdschwerefeldmodellen zur Verfügung. Dies sind im Allgemeinen Kugelfunktionsentwicklungen des Gravitationspotentials der Erde, die aus einer Kombination von Satellitenbeobachtungen, Altimetermessungen und mittleren Freiluftanomalien berechnet werden. Für kleinräumige Untersuchungen stehen hochauflösende regionale oder lokale Modelle zur Verfügung. Zu deren Herstellung werden globale Modelle durch ein dichtes Netz von Freiluftanomalien, aus GPS und Nivellement bestimmten Geoidundulationen oder astronomischen Lotabweichungen verbessert. Aus Geopotentialmodellen können Schwerefeldgrößen wie Geoidundulationen bzw. Höhenanomalien bestimmt werden. Eine Untersuchung der Geoidundulationen in Österreich, bestimmt durch die aktuellsten Lösungen, dem EGM2008 (weltweit, Kugelfunktionen, n=2159), dem EGG2008 (Europa, 1.0'x1.0' Raster) und dem Austrian Geoid 2007 (Österreich, 1.5'x2.5' Raster), zeigen mittlere Differenzen in der Größe von +11.5cm (AG2007 minus EGG2008) bzw. -12.5cm (AG2007 minus EGM2008). Betrachtet man den relativen Geoidverlauf, so existieren im Osten Österreichs kaum Abweichungen zwischen den Modellen. Im alpinen Westen des Landes führen verschiedene Effekte zu Differenzen von bis zu 20cm. Die Eignung des EGM2008 oder des EGG2008 als Ersatz für das Austrian Geoid 2007 hängt daher einerseits vom Anwendungsgebiet innerhalb Österreichs und andererseits von der geforderten Genauigkeit der abgeleiteten Größen ab.
Dem Anwender aus Geodäsie, Geophysik oder Ozeanographie steht eine große Zahl an Erdschwerefeldmodellen zur Verfügung. Dies sind im Allgemeinen Kugelfunktionsentwicklungen des Gravitationspotentials der Erde, die aus einer Kombination von Satellitenbeobachtungen, Altimetermessungen und mittleren Freiluftanomalien berechnet werden. Für kleinräumige Untersuchungen stehen hochauflösende regionale oder lokale Modelle zur Verfügung. Zu deren Herstellung werden globale Modelle durch ein dichtes Netz von Freiluftanomalien, aus GPS und Nivellement bestimmten Geoidundulationen oder astronomischen Lotabweichungen verbessert. Aus Geopotentialmodellen können Schwerefeldgrößen wie Geoidundulationen bzw. Höhenanomalien bestimmt werden. Eine Untersuchung der Geoidundulationen in Österreich, bestimmt durch die aktuellsten Lösungen, dem EGM2008 (weltweit, Kugelfunktionen, n=2159), dem EGG2008 (Europa, 1.0'x1.0' Raster) und dem Austrian Geoid 2007 (Österreich, 1.5'x2.5' Raster), zeigen mittlere Differenzen in der Größe von +11.5cm (AG2007 minus EGG2008) bzw. -12.5cm (AG2007 minus EGM2008). Betrachtet man den relativen Geoidverlauf, so existieren im Osten Österreichs kaum Abweichungen zwischen den Modellen. Im alpinen Westen des Landes führen verschiedene Effekte zu Differenzen von bis zu 20cm. Die Eignung des EGM2008 oder des EGG2008 als Ersatz für das Austrian Geoid 2007 hängt daher einerseits vom Anwendungsgebiet innerhalb Österreichs und andererseits von der geforderten Genauigkeit der abgeleiteten Größen ab.
Geometriebestimmung von Biogasspeicheranlagen
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2014
Betreuer: Univ.-Prof. Dipl.-Ing.Dr. Werner Lienhart
Betreuer: Univ.-Prof. Dipl.-Ing.Dr. Werner Lienhart
Kurzfassung/Abstract
Biogas wird heute als erneuerbarer und nachhaltiger Energieträger verstanden, der mittlerweile an einer großen Anzahl von Standorten in ganz Europa produziert wird. Für eine effiziente Energieproduktion sind Biogasspeicheranlagen notwendig, wobei von den verschiedenen Bauarten Biogasspeicher mit Doppelmembran größtes Zukunftspotential aufweisen. Dies kommt daher, dass solche Biogasspeicher kostengünstig und einfach zu installieren sind und die speziell beschichtete Membran nicht mit H2S (Schwefelwasserstoff), einem korrosiven, giftigen Nebenprodukt der Vergärung von organischen Stoffen reagiert. Solche Biogasspeicher besitzen jeweils eine Außenmembran, welche entweder durch Luftdruck die Form behält oder von einem Stützmast gehalten wird und eine Innenmembran, welche das Biogas speichert. Eine häufige Form solcher Speicher ist die ¾ Kugel. Diese wird aus ebenen Zuschnitten gefertigt, was zur Folge hat, dass die Kugelform nicht perfekt zu realisieren ist und es dadurch u. a. zu Krümmungsänderungen an den Schweißnähten kommt. Dadurch entstehen höhere Spannungen an den Schweißnähten, was wiederum die Lebensdauer der Biogasspeicheranlage beeinflussen kann. Um nun den Produktionsprozess zu verbessern, sind 3D Messwerte der realen Geometrie nötig. In dieser Arbeit werden verschiedene Ansätze für die 3D Erfassung von Objekten aus der Industrievermessung und dem Vermessungswesen beschrieben. Um die gesamte Kette von Aufnahme bis Interpretation durchzuführen, wurde ein ¾ Test Speicher mit einem geeigneten Messsystem aufgenommen und mit einem Referenzmodell verglichen. Als Ergebnis erhält man so eine Punktwolke mit Informationen zu Abweichungen vom Referenzmodell.
Biogas wird heute als erneuerbarer und nachhaltiger Energieträger verstanden, der mittlerweile an einer großen Anzahl von Standorten in ganz Europa produziert wird. Für eine effiziente Energieproduktion sind Biogasspeicheranlagen notwendig, wobei von den verschiedenen Bauarten Biogasspeicher mit Doppelmembran größtes Zukunftspotential aufweisen. Dies kommt daher, dass solche Biogasspeicher kostengünstig und einfach zu installieren sind und die speziell beschichtete Membran nicht mit H2S (Schwefelwasserstoff), einem korrosiven, giftigen Nebenprodukt der Vergärung von organischen Stoffen reagiert. Solche Biogasspeicher besitzen jeweils eine Außenmembran, welche entweder durch Luftdruck die Form behält oder von einem Stützmast gehalten wird und eine Innenmembran, welche das Biogas speichert. Eine häufige Form solcher Speicher ist die ¾ Kugel. Diese wird aus ebenen Zuschnitten gefertigt, was zur Folge hat, dass die Kugelform nicht perfekt zu realisieren ist und es dadurch u. a. zu Krümmungsänderungen an den Schweißnähten kommt. Dadurch entstehen höhere Spannungen an den Schweißnähten, was wiederum die Lebensdauer der Biogasspeicheranlage beeinflussen kann. Um nun den Produktionsprozess zu verbessern, sind 3D Messwerte der realen Geometrie nötig. In dieser Arbeit werden verschiedene Ansätze für die 3D Erfassung von Objekten aus der Industrievermessung und dem Vermessungswesen beschrieben. Um die gesamte Kette von Aufnahme bis Interpretation durchzuführen, wurde ein ¾ Test Speicher mit einem geeigneten Messsystem aufgenommen und mit einem Referenzmodell verglichen. Als Ergebnis erhält man so eine Punktwolke mit Informationen zu Abweichungen vom Referenzmodell.
Untersuchung der Sonnenkorona mit VLBI
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2013
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Radiobeobachtungen nahe der Sonne reagieren empfindlich auf die dispersiven Einflüsse der Sonnenkorona. Diese Sensivität kann unter anderem dazu dienen, die Elektronendichte in der Korona zu bestimmen. Obwohl Beobachtungen der geodätischen Radiointerferometrie auf langen Basen (VLBI) nahe der Sonne bereits vor 2002 durchgeführt worden waren (danach jedoch eingestellt wurden), wurden sie noch nicht zur Berechnung von Elektronendichten der Korona verwendet. Fast zehn Jahre später entschied der International VLBI Service for Geodesy and Astrometry (IVS), zwölf 24-Stunden-VLBI-Sessions in den Jahren 2011 und 2012 zu planen, die Beobachtungen näher als 15 Grad zum Heliozentrum enthalten.
Ausgehend von den durch Zwei-Frequenz-VLBI-Beobachtungen abgeleiteten ionosphärischen Laufzeitkorrekturen wurden andere dispersive Effekte wie instrumentelle Laufzeitverzögerungen und insbesondere der Einfluss der Ionosphäre der Erde bestimmt und eliminiert. Die residualen Laufzeitverzögerungen wurden verwendet, um Parameter von Potenzgesetzen der Elektronendichte der Sonnenkorona für diese Sessions zu bestimmen.
Verschiedene Vorgangsweisen und Parametrisierungen für die Parameterausgleichung wurden getestet und bezüglich ihrer Möglichkeit, die genauesten Ergebnisse zu liefern, evaluiert. Weiters wurde eine Methode vorgestellt, Parameter der Sonnenkorona aus einer Kombination von VLBI- und GNSS-Daten abzuleiten.
In manchen Fällen schlugen geplante Beobachtungen nahe der Sonne fehl, wodurch es unmöglich wurde, aussagekräftige Ergebnisse von ihnen abzuleiten. Sowohl die erfolgreichen als auch die fehlgeschlagenen Beobachtungen wurden mithilfe von externen Informationen analysiert. Die geschätzten Elektronendichten wurden mit Indikatoren für Sonnenaktivität (zum Beispiel Sonnenfleckenzahlen oder Strahlungsflussmessungen) verglichen. Für die Sessions in 2011 und 2012 konnte ein Mittelwert von (7,0 +/- 1,0) 1011 [10 hoch 11] m-3 [m hoch -3] als Elektronendichte an der Sonnenoberfläche unter Annahme einer quadratischen radialen Abnahme bestimmt werden. Die im Laufe dieser Arbeit zum ersten Mal mit VLBI bestimmten Modelle passen gut mit früheren Modellen der Sonnenkorona zusammen, die aus Radiomessungen zu Raummissionen während solarer Konjunktionen bestimmt worden waren.
Bisher sind die Koronaparameter aus VLBI-Beboachtungen von etwas niedrigerer Qualität als jene, die aus Raummissions-gebundenen Messungen abgeleitet wurden. Dies könnte sich mit dem kommenden VLBI2010 System, welches die Genauigkeit und Verlässlichkeit von sonnennahen Beobachtungen deutlich verbessern soll, ändern. Ein wichtiger Vorteil von VLBI ist die Möglichkeit, die Elektronendichte regelmäßig zu überwachen und so eine homogene Zeitreihe zu erstellen. Dies könnte unser Verständnis von zeitabhängigen Prozessen der Sonne verbessern.
Radiobeobachtungen nahe der Sonne reagieren empfindlich auf die dispersiven Einflüsse der Sonnenkorona. Diese Sensivität kann unter anderem dazu dienen, die Elektronendichte in der Korona zu bestimmen. Obwohl Beobachtungen der geodätischen Radiointerferometrie auf langen Basen (VLBI) nahe der Sonne bereits vor 2002 durchgeführt worden waren (danach jedoch eingestellt wurden), wurden sie noch nicht zur Berechnung von Elektronendichten der Korona verwendet. Fast zehn Jahre später entschied der International VLBI Service for Geodesy and Astrometry (IVS), zwölf 24-Stunden-VLBI-Sessions in den Jahren 2011 und 2012 zu planen, die Beobachtungen näher als 15 Grad zum Heliozentrum enthalten.
Ausgehend von den durch Zwei-Frequenz-VLBI-Beobachtungen abgeleiteten ionosphärischen Laufzeitkorrekturen wurden andere dispersive Effekte wie instrumentelle Laufzeitverzögerungen und insbesondere der Einfluss der Ionosphäre der Erde bestimmt und eliminiert. Die residualen Laufzeitverzögerungen wurden verwendet, um Parameter von Potenzgesetzen der Elektronendichte der Sonnenkorona für diese Sessions zu bestimmen.
Verschiedene Vorgangsweisen und Parametrisierungen für die Parameterausgleichung wurden getestet und bezüglich ihrer Möglichkeit, die genauesten Ergebnisse zu liefern, evaluiert. Weiters wurde eine Methode vorgestellt, Parameter der Sonnenkorona aus einer Kombination von VLBI- und GNSS-Daten abzuleiten.
In manchen Fällen schlugen geplante Beobachtungen nahe der Sonne fehl, wodurch es unmöglich wurde, aussagekräftige Ergebnisse von ihnen abzuleiten. Sowohl die erfolgreichen als auch die fehlgeschlagenen Beobachtungen wurden mithilfe von externen Informationen analysiert. Die geschätzten Elektronendichten wurden mit Indikatoren für Sonnenaktivität (zum Beispiel Sonnenfleckenzahlen oder Strahlungsflussmessungen) verglichen. Für die Sessions in 2011 und 2012 konnte ein Mittelwert von (7,0 +/- 1,0) 1011 [10 hoch 11] m-3 [m hoch -3] als Elektronendichte an der Sonnenoberfläche unter Annahme einer quadratischen radialen Abnahme bestimmt werden. Die im Laufe dieser Arbeit zum ersten Mal mit VLBI bestimmten Modelle passen gut mit früheren Modellen der Sonnenkorona zusammen, die aus Radiomessungen zu Raummissionen während solarer Konjunktionen bestimmt worden waren.
Bisher sind die Koronaparameter aus VLBI-Beboachtungen von etwas niedrigerer Qualität als jene, die aus Raummissions-gebundenen Messungen abgeleitet wurden. Dies könnte sich mit dem kommenden VLBI2010 System, welches die Genauigkeit und Verlässlichkeit von sonnennahen Beobachtungen deutlich verbessern soll, ändern. Ein wichtiger Vorteil von VLBI ist die Möglichkeit, die Elektronendichte regelmäßig zu überwachen und so eine homogene Zeitreihe zu erstellen. Dies könnte unser Verständnis von zeitabhängigen Prozessen der Sonne verbessern.
Identifying Attributes relevant for Route Choice in Public Transport
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Univ.-Ass. Dr. Haosheng Huang
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Univ.-Ass. Dr. Haosheng Huang
Kurzfassung/Abstract
Routenplaner sind heutzutage in vielen verschiedenen Geräten verfügbar. Es gibt eine Menge von Online-Tools, viele neue Autos haben ein Navigationssystem eingebaut und beinahe jedes Smartphone hat eine Navigationssoftware installiert. Im Gegensatz zur Personalisierung in anderen Bereichen des Internets liefern Routenplaner größtenteils noch immer jedem Benutzer die gleiche Route. Während diese Routen zwar technisch korrekt sind, berücksichtigen sie jedoch keine individuellen Präferenzen. Diese Diplomarbeit untersucht die Attribute von Stationen im Netz der öffentlichen Verkehrsmittel die für einen Menschen relevant sind bei der Entscheidung für eine Route. Die Attribute werden in einem ersten Schritt mit Hilfe einer Focus Group ermittelt. Danach werden sie als objektiv oder subjektiv kategorisiert. Ein besonderes Augenmerk gilt den subjektiven Attributen, da davon auszugehen ist, dass sie einen erheblichen (unterbewussten) Einfluss auf die Routenplanung haben. Abschließend wird die Bedeutung jedes Attributes durch einen Online-Fragebogen bewertet. In diesem Fragebogen werden die Teilnehmer mit verschiedenen Situationen konfrontiert so dass der Unterschied der Bedeutung der einzelnen Attribute festgestellt werden kann. Einige wichtige Ergebnisse sind die Bestätigung, dass Routen-Entscheidungen tatsächlich von vielen verschiedenen Faktoren beeinflusst werden. Eine große Anzahl an Attributen wurde festgestellt und von den Teilnehmern bewertet. Zwölf dieser Attribute wurden in mehr als 20% der Fälle als wichtig ausgewählt. Unter den gefundenen Attributen befinden sich einige die als subjektiv bezeichnet werden können und die daher nicht so einfach zu messen sind.
Routenplaner sind heutzutage in vielen verschiedenen Geräten verfügbar. Es gibt eine Menge von Online-Tools, viele neue Autos haben ein Navigationssystem eingebaut und beinahe jedes Smartphone hat eine Navigationssoftware installiert. Im Gegensatz zur Personalisierung in anderen Bereichen des Internets liefern Routenplaner größtenteils noch immer jedem Benutzer die gleiche Route. Während diese Routen zwar technisch korrekt sind, berücksichtigen sie jedoch keine individuellen Präferenzen. Diese Diplomarbeit untersucht die Attribute von Stationen im Netz der öffentlichen Verkehrsmittel die für einen Menschen relevant sind bei der Entscheidung für eine Route. Die Attribute werden in einem ersten Schritt mit Hilfe einer Focus Group ermittelt. Danach werden sie als objektiv oder subjektiv kategorisiert. Ein besonderes Augenmerk gilt den subjektiven Attributen, da davon auszugehen ist, dass sie einen erheblichen (unterbewussten) Einfluss auf die Routenplanung haben. Abschließend wird die Bedeutung jedes Attributes durch einen Online-Fragebogen bewertet. In diesem Fragebogen werden die Teilnehmer mit verschiedenen Situationen konfrontiert so dass der Unterschied der Bedeutung der einzelnen Attribute festgestellt werden kann. Einige wichtige Ergebnisse sind die Bestätigung, dass Routen-Entscheidungen tatsächlich von vielen verschiedenen Faktoren beeinflusst werden. Eine große Anzahl an Attributen wurde festgestellt und von den Teilnehmern bewertet. Zwölf dieser Attribute wurden in mehr als 20% der Fälle als wichtig ausgewählt. Unter den gefundenen Attributen befinden sich einige die als subjektiv bezeichnet werden können und die daher nicht so einfach zu messen sind.
Auswertung und Analyse profilhafter Überwachungsmessungen mit einem terrestrischen Laserscanner
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2014
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner
Kurzfassung/Abstract
Durch die Zunahme des Verkehrs auf der Straße sind Brückenbauwerke heutzutage deutlich stärker beansprucht, als dies zu Zeiten ihrer Errichtung vorgesehen war. Es ist daher notwendig Life-Cycle-Konzepte zur Überprüfung der Zuverlässigkeit der Tragwerke zu entwickeln, die allfällige Ermüdungserscheinungen frühzeitig erkennen können. Im Rahmen dieser Diplomarbeit wird die Einsetzbarkeit eines terrestrischen Laserscanners für diese Aufgabenstellung untersucht. Aus profilhaften Messungen der Brückenunterseite unter verkehrsbedingten Auflasten sollen Biegelinien modelliert werden, aus denen in weiter Folge Dehnungen abgeleitet werden. Es werden hierbei Messdaten von ca. 15 Minuten analysiert, welcher von einem Team der Gottfried Leibnitz Universität 2013 an einer Brücke der „R2 - Hochstraße Rethen" in Hannover aufgenommen wurden.
Es werden zwei mögliche Modellierungsansätze aufgezeigt und auf ihre Einsetzbarkeit untersucht. Zum einen sind dies B-Splines, welche aus der Computergrafik stammen und zum anderen mittels Kollokationsrechnung. In der Modellierung mittels B-Splines wird in dieser Arbeit ein besonderes Augenmerk auf die Wahl des Knotenvektors gelegt und sein Einfluss auf das Approximationsergebnis untersucht.
Die so gewonnenen Dehnungen werden mit Dehnungsmessungen verglichen, welche aus Messungen mittels Dehnungsmessstreifen erhalten wurden. Es zeigt sich dabei, dass mittels der in dieser Diplomarbeit beschriebenen Verfahren zur B-Spline-Modellierung Dehnungen ab einer Größe von 2 μm in ihrer Form des Peaks aufgedeckt werden können. Es bleiben dennoch Residuen in der modellierten Größe der Dehnung. Darüber hinaus können lokale negative Dehnungen mittels der vorgestellten Methoden aufgrund ihres Filterungscharakters nicht modelliert werden.
Die vorgestellte Methode in der Kollokationsrechnung liefert für die Modellierung die zuverlässigsten Ergebnisse hinsichtlich der Approximationsgüte. Die erhaltenen Dehnungen sind jedoch aufgrund des zu großen Punktabstandes in den prädizierten Messwerten stark verrauscht. Leistungsfähigere Hardware würde benötigt werden, um das Potenzial dieses Modellierungsansatzes restlos klären zu können.
Durch die Zunahme des Verkehrs auf der Straße sind Brückenbauwerke heutzutage deutlich stärker beansprucht, als dies zu Zeiten ihrer Errichtung vorgesehen war. Es ist daher notwendig Life-Cycle-Konzepte zur Überprüfung der Zuverlässigkeit der Tragwerke zu entwickeln, die allfällige Ermüdungserscheinungen frühzeitig erkennen können. Im Rahmen dieser Diplomarbeit wird die Einsetzbarkeit eines terrestrischen Laserscanners für diese Aufgabenstellung untersucht. Aus profilhaften Messungen der Brückenunterseite unter verkehrsbedingten Auflasten sollen Biegelinien modelliert werden, aus denen in weiter Folge Dehnungen abgeleitet werden. Es werden hierbei Messdaten von ca. 15 Minuten analysiert, welcher von einem Team der Gottfried Leibnitz Universität 2013 an einer Brücke der „R2 - Hochstraße Rethen" in Hannover aufgenommen wurden.
Es werden zwei mögliche Modellierungsansätze aufgezeigt und auf ihre Einsetzbarkeit untersucht. Zum einen sind dies B-Splines, welche aus der Computergrafik stammen und zum anderen mittels Kollokationsrechnung. In der Modellierung mittels B-Splines wird in dieser Arbeit ein besonderes Augenmerk auf die Wahl des Knotenvektors gelegt und sein Einfluss auf das Approximationsergebnis untersucht.
Die so gewonnenen Dehnungen werden mit Dehnungsmessungen verglichen, welche aus Messungen mittels Dehnungsmessstreifen erhalten wurden. Es zeigt sich dabei, dass mittels der in dieser Diplomarbeit beschriebenen Verfahren zur B-Spline-Modellierung Dehnungen ab einer Größe von 2 μm in ihrer Form des Peaks aufgedeckt werden können. Es bleiben dennoch Residuen in der modellierten Größe der Dehnung. Darüber hinaus können lokale negative Dehnungen mittels der vorgestellten Methoden aufgrund ihres Filterungscharakters nicht modelliert werden.
Die vorgestellte Methode in der Kollokationsrechnung liefert für die Modellierung die zuverlässigsten Ergebnisse hinsichtlich der Approximationsgüte. Die erhaltenen Dehnungen sind jedoch aufgrund des zu großen Punktabstandes in den prädizierten Messwerten stark verrauscht. Leistungsfähigere Hardware würde benötigt werden, um das Potenzial dieses Modellierungsansatzes restlos klären zu können.
Identifying people´s affective responses to the environment from social media data
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Univ.-Ass. Dr. Haosheng Huang
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Univ.-Ass. Dr. Haosheng Huang
Kurzfassung/Abstract
Um zu verstehen, warum wir uns in gewisser Weise in unterschiedlichen Umgebungen verhalten, ist die Notwendigkeit der Erfassung emotionaler Information über unsere Umwelt entstanden. Ganz viel Aufmerksamkeit wird dabei auf das Extrahieren emotionaler Informationen aus Social-Media-Daten verwendet. Methoden, die in früheren Forschungsarbeiten präsentiert wurden, die affektive Reaktionen auf die Umwelt aus Social-Media-Daten identifizieren, sind nicht spezifisch genug, um das Ziel der Reaktionen zu identifizieren oder sind gar nicht auf die Umwelt bezogen. Das kann zu falsch identifizierten zusätzlichen Daten in Benutzer-Beiträgen führen, die keine affektiven Reaktionen beinhalten. Im Zuge dieser Arbeit wurde eine Methodik entwickelt, die eine neue Perspektive verwendet um genauere affektive Antworten zu Orten in Wien mit Hilfe von Flickr Metadaten identifizieren. Satz-Strukturanalyse und Textklassifikation sind Bausteine der neuen Methodik. Wir definierten, dass das Ziel der affektiven Reaktion - in Textinformation - aus englischen Ort-Substantiven besteht. Mit Hilfe der Verarbeitung von natürlicher Sprache, insbesondere mit syntaktischer und semantischer Analyse, haben wir Adjektiv - Nomen - Strukturen identifiziert. Auf diese haben wir einen Maschinenlern-Klassifikator angewandt, um nur die Ort-Substantive zu sammeln. Die affektive Reaktion eines Ortes haben wir anhand der Valenz der Adjektive, die bei den Ort-Substantiven in einem Benutzerpost gefunden wurden, berechnet. Um die Adjektiv-Valenz erhalten zu können, haben wir eine neue affektive Wortliste erstellt. Unsere Ergebnisse zeigen, dass die neue Methode genauerer ist als früheren Forschungen, wenn sie auf Flickr Metadaten angewandt werden. Wir glauben, dass diese Lösung auch für verschiedene soziale Plattformen einsetzbar ist, um zur Verbesserung der Entscheidungsfindung für die Entwicklung von Smart Cities beizutragen.
Um zu verstehen, warum wir uns in gewisser Weise in unterschiedlichen Umgebungen verhalten, ist die Notwendigkeit der Erfassung emotionaler Information über unsere Umwelt entstanden. Ganz viel Aufmerksamkeit wird dabei auf das Extrahieren emotionaler Informationen aus Social-Media-Daten verwendet. Methoden, die in früheren Forschungsarbeiten präsentiert wurden, die affektive Reaktionen auf die Umwelt aus Social-Media-Daten identifizieren, sind nicht spezifisch genug, um das Ziel der Reaktionen zu identifizieren oder sind gar nicht auf die Umwelt bezogen. Das kann zu falsch identifizierten zusätzlichen Daten in Benutzer-Beiträgen führen, die keine affektiven Reaktionen beinhalten. Im Zuge dieser Arbeit wurde eine Methodik entwickelt, die eine neue Perspektive verwendet um genauere affektive Antworten zu Orten in Wien mit Hilfe von Flickr Metadaten identifizieren. Satz-Strukturanalyse und Textklassifikation sind Bausteine der neuen Methodik. Wir definierten, dass das Ziel der affektiven Reaktion - in Textinformation - aus englischen Ort-Substantiven besteht. Mit Hilfe der Verarbeitung von natürlicher Sprache, insbesondere mit syntaktischer und semantischer Analyse, haben wir Adjektiv - Nomen - Strukturen identifiziert. Auf diese haben wir einen Maschinenlern-Klassifikator angewandt, um nur die Ort-Substantive zu sammeln. Die affektive Reaktion eines Ortes haben wir anhand der Valenz der Adjektive, die bei den Ort-Substantiven in einem Benutzerpost gefunden wurden, berechnet. Um die Adjektiv-Valenz erhalten zu können, haben wir eine neue affektive Wortliste erstellt. Unsere Ergebnisse zeigen, dass die neue Methode genauerer ist als früheren Forschungen, wenn sie auf Flickr Metadaten angewandt werden. Wir glauben, dass diese Lösung auch für verschiedene soziale Plattformen einsetzbar ist, um zur Verbesserung der Entscheidungsfindung für die Entwicklung von Smart Cities beizutragen.
The automatic generalization of building polygons whilst maintaining the settlement structure - A case study based on the 1:50000 Swiss National Map Series
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner mit SwissTopo und ESRI, Schweiz
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner mit SwissTopo und ESRI, Schweiz
Kurzfassung/Abstract
Innerhalb der Kartographie ist die Automatische Generalisierung eines der Haupt Schlagworte, aber zum heutigen Zeitpunkt immer noch ein schwer zu erreichendes Ziel und somit Gegenstand intensiver Forschungstätigkeit. Die Notwendigkeit der automatischen Generalisierung ist für die meisten NMAs von erheblichem Interesse. Mit automatischer Generalisierung sind diese nicht nur in der Lage ihre Produktionslinien zu verbessern und zu optimieren, sondern auch wichtige Ressourcen wie Zeit und Geld einzusparen. Aus diesen Gründen schlagen viele NMAs diesen Weg ein oder haben automatische Generalisierung bereits eingeführt. Das Bundesamt für Landestopografie swisstopo, die NMA der Schweiz, verwendet bereits automatische Generalisierung bei der Kartenproduktion und sucht ständig nach neuen Ansätzen und Methoden um die Effizienz zu verbessern. Von besonderem Interesse ist die Generalisierung von Gebäuden, da das Siedlungsbild in allen Maßstäben von größter Bedeutung ist. Besonders in Schweizer Karten ist die Einzelhausdarstellung über mehrere Maßstäbe eine Besonderheit und deshalb zu gewährleisten. Diese Masterarbeit beschreibt nicht nur die Herausforderungen, sondern liefert vielmehr eine mögliche Arbeitslösung für die automatische Generalisierung der einzelnen Gebäude Polygone des Schweizer TLM (Topographisches Landschaftsmodel, Maßstab 1:10'000) unter Erhalt der Einzelhausdarstellung für einen Endmaßstab von 1:50'000, und dies unter Beibehaltung der verschiedenen Siedlungsformen innerhalb der Schweiz. Das fertige Ergebnis wurde anschließend durch eine Expertengruppe, bestehend aus Personen die unmittelbar mit dem Thema Generalisierung vertraut sind, mittels Fragebogen evaluiert. Die Gruppe wurde durch drei verschiedene Expertengruppen repräsentiert (Kartographen, Software Spezialisten und Hochschulausbildung). Die Evaluierungsergebnisse liefern einen interessanten Einblick in die Wahrnehmung der erzielten Generalisierung und bietet eine Vision wie diese Forschung fortgesetzt werden könnte.
Innerhalb der Kartographie ist die Automatische Generalisierung eines der Haupt Schlagworte, aber zum heutigen Zeitpunkt immer noch ein schwer zu erreichendes Ziel und somit Gegenstand intensiver Forschungstätigkeit. Die Notwendigkeit der automatischen Generalisierung ist für die meisten NMAs von erheblichem Interesse. Mit automatischer Generalisierung sind diese nicht nur in der Lage ihre Produktionslinien zu verbessern und zu optimieren, sondern auch wichtige Ressourcen wie Zeit und Geld einzusparen. Aus diesen Gründen schlagen viele NMAs diesen Weg ein oder haben automatische Generalisierung bereits eingeführt. Das Bundesamt für Landestopografie swisstopo, die NMA der Schweiz, verwendet bereits automatische Generalisierung bei der Kartenproduktion und sucht ständig nach neuen Ansätzen und Methoden um die Effizienz zu verbessern. Von besonderem Interesse ist die Generalisierung von Gebäuden, da das Siedlungsbild in allen Maßstäben von größter Bedeutung ist. Besonders in Schweizer Karten ist die Einzelhausdarstellung über mehrere Maßstäbe eine Besonderheit und deshalb zu gewährleisten. Diese Masterarbeit beschreibt nicht nur die Herausforderungen, sondern liefert vielmehr eine mögliche Arbeitslösung für die automatische Generalisierung der einzelnen Gebäude Polygone des Schweizer TLM (Topographisches Landschaftsmodel, Maßstab 1:10'000) unter Erhalt der Einzelhausdarstellung für einen Endmaßstab von 1:50'000, und dies unter Beibehaltung der verschiedenen Siedlungsformen innerhalb der Schweiz. Das fertige Ergebnis wurde anschließend durch eine Expertengruppe, bestehend aus Personen die unmittelbar mit dem Thema Generalisierung vertraut sind, mittels Fragebogen evaluiert. Die Gruppe wurde durch drei verschiedene Expertengruppen repräsentiert (Kartographen, Software Spezialisten und Hochschulausbildung). Die Evaluierungsergebnisse liefern einen interessanten Einblick in die Wahrnehmung der erzielten Generalisierung und bietet eine Vision wie diese Forschung fortgesetzt werden könnte.
Modeling Individual's Familiarity of Places Using Social Media
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2014
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Univ.-Ass. Dr. Haosheng Huang
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner, Univ.-Ass. Dr. Haosheng Huang
Kurzfassung/Abstract
Different people have different prior knowledge of a certain environment, which makes it hard to provide a geo-related service (e.g. navigation) that fits all. In order to provide a service adapted to individual's spatial knowledge, a model of individual's prior knowledge of the environment is needed. The growing popularity of location aware social media provides a unique opportunity to study individual's spatial knowledge. With Foursquare being one of the most popular location-based social media, this thesis focuses on modeling individual's familiarity of places by using Foursquare data. To achieve this overall goal, two objectives are set. The first objective is to identify individual's meaningful places. To derive meaningful places from the check-ins on Foursquare, which represent the frequency of visits to a place, an appropriate clustering algorithm is required. A comparison of four existing clustering algorithms (SLINK, K-means, DBSCAN and EM Algorithm for Gaussian Mixture Model) was then conducted. DBSCAN turned out to have the best overall performance. To attain the second objective, which is to model individual's familiarity of places, information indicating the affected responses of an individual, e.g., the text descriptions and photos along with a check-in, was added to weight each check-in and eventually to measure the familiarity. To evaluate the modeling framework, an online survey was carried out. The results demonstrated the possibility to model individual's familiarity of places using social media.
Different people have different prior knowledge of a certain environment, which makes it hard to provide a geo-related service (e.g. navigation) that fits all. In order to provide a service adapted to individual's spatial knowledge, a model of individual's prior knowledge of the environment is needed. The growing popularity of location aware social media provides a unique opportunity to study individual's spatial knowledge. With Foursquare being one of the most popular location-based social media, this thesis focuses on modeling individual's familiarity of places by using Foursquare data. To achieve this overall goal, two objectives are set. The first objective is to identify individual's meaningful places. To derive meaningful places from the check-ins on Foursquare, which represent the frequency of visits to a place, an appropriate clustering algorithm is required. A comparison of four existing clustering algorithms (SLINK, K-means, DBSCAN and EM Algorithm for Gaussian Mixture Model) was then conducted. DBSCAN turned out to have the best overall performance. To attain the second objective, which is to model individual's familiarity of places, information indicating the affected responses of an individual, e.g., the text descriptions and photos along with a check-in, was added to weight each check-in and eventually to measure the familiarity. To evaluate the modeling framework, an online survey was carried out. The results demonstrated the possibility to model individual's familiarity of places using social media.
Grundlagen zur Realisierung eines Katasters öffentlich-rechtlicher Eigentumsbeschränkungen
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2014
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Derzeit beruht das österreichische System zur Eigentumssicherung von Grund und Boden auf dem Grundbuch und dem Kataster. Diese Systeme dienen primär dazu privatrechtliche Verhältnisse und Eigentumsbeschränkungen ersichtlich zu machen. Um eine geordnete Entwicklung von Grund und Boden zu gewährleisten, greift die Gesetzgebung in das private Grundeigentum ein und so entstehen immer mehr öffentlich-rechtliche Eigentumsbeschränkungen. Für die Eigentümer selbst und Interessenten an bestimmten Grundstücken, ist es daher wichtig die aktuell gültigen Rechtsverhältnisse an bestimmten Grundstücken zu kennen. Sollen öffentlich-rechtliche Eigentumsbeschränkungen im Grundbuch oder im Kataster jedoch verbindlich und mit hoher Rechtssicherheit wiedergegeben werden, bieten diese vorhandenen Systeme nicht die notwendigen Voraussetzungen.
In dieser Arbeit werden die Grundlagen zur Realisierung eines Katasters öffentlich-rechtliche Eigentumsbeschränkungen untersucht. Das Ziel dieses Systems soll es sein, Eigentumsbeschränkungen, die dem öffentlichen Recht entstammen, abzubilden. Dabei sind die wichtigsten Voraussetzungen, dass der Inhalt dieses Katasters aktuell und vollständig ist und dass für die Benutzer hohe Rechtssicherheit gegeben ist. Aus diesen Gründen werden rechtliche und organisatorische Grundlagen diskutiert, welche für die Realisierung des Katasters in Österreich notwendig sind. Zu Beginn werden Details des Schweizer Katasters öffentlich-rechtlicher Eigentumsbeschränkungen erläutert und anschließend versucht eine Definition von öffentlich-rechtlichen Eigentumsbeschränkungen zu geben. Besonderes Augenmerk wird dabei auch auf die Prozesse und das Datenmanagement eines zukünftigen Katasters öffentlich-rechtlicher Eigentumsbeschränkungen gelegt, da eine genaue Untersuchung dieser Bereiche für eine mögliche zukünftige Einführung des Katasters unerlässlich ist. Zuletzt werden die öffentlich-rechtlichen Eigentumsbeschränkungen „Flächenwidmungsplan" und „Denkmalschutz" im Detail untersucht und eine mögliche Integration in einen Kataster öffentlich-rechtlicher Eigentumsbeschränkungen diskutiert.
Derzeit beruht das österreichische System zur Eigentumssicherung von Grund und Boden auf dem Grundbuch und dem Kataster. Diese Systeme dienen primär dazu privatrechtliche Verhältnisse und Eigentumsbeschränkungen ersichtlich zu machen. Um eine geordnete Entwicklung von Grund und Boden zu gewährleisten, greift die Gesetzgebung in das private Grundeigentum ein und so entstehen immer mehr öffentlich-rechtliche Eigentumsbeschränkungen. Für die Eigentümer selbst und Interessenten an bestimmten Grundstücken, ist es daher wichtig die aktuell gültigen Rechtsverhältnisse an bestimmten Grundstücken zu kennen. Sollen öffentlich-rechtliche Eigentumsbeschränkungen im Grundbuch oder im Kataster jedoch verbindlich und mit hoher Rechtssicherheit wiedergegeben werden, bieten diese vorhandenen Systeme nicht die notwendigen Voraussetzungen.
In dieser Arbeit werden die Grundlagen zur Realisierung eines Katasters öffentlich-rechtliche Eigentumsbeschränkungen untersucht. Das Ziel dieses Systems soll es sein, Eigentumsbeschränkungen, die dem öffentlichen Recht entstammen, abzubilden. Dabei sind die wichtigsten Voraussetzungen, dass der Inhalt dieses Katasters aktuell und vollständig ist und dass für die Benutzer hohe Rechtssicherheit gegeben ist. Aus diesen Gründen werden rechtliche und organisatorische Grundlagen diskutiert, welche für die Realisierung des Katasters in Österreich notwendig sind. Zu Beginn werden Details des Schweizer Katasters öffentlich-rechtlicher Eigentumsbeschränkungen erläutert und anschließend versucht eine Definition von öffentlich-rechtlichen Eigentumsbeschränkungen zu geben. Besonderes Augenmerk wird dabei auch auf die Prozesse und das Datenmanagement eines zukünftigen Katasters öffentlich-rechtlicher Eigentumsbeschränkungen gelegt, da eine genaue Untersuchung dieser Bereiche für eine mögliche zukünftige Einführung des Katasters unerlässlich ist. Zuletzt werden die öffentlich-rechtlichen Eigentumsbeschränkungen „Flächenwidmungsplan" und „Denkmalschutz" im Detail untersucht und eine mögliche Integration in einen Kataster öffentlich-rechtlicher Eigentumsbeschränkungen diskutiert.
Direkte Georeferenzierung von Photographien anhand von freier Hardware und quelloffener Software
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2013
Betreuer: Dipl.-Ing. Dr. Christian Briese, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Betreuer: Dipl.-Ing. Dr. Christian Briese, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Die direkte Georeferenzierung ermöglicht die Bestimmung der äußeren Orientierung (Position und Orientierungswinkel) für Photographien, ohne Passpunkte in den Bildern messen zu müssen. Das Hauptziel dieser Arbeit liegt in der Entwicklung eines Systems zur direkten Georeferenzierung von Photos welche mit der Hand aufgenommen werden oder bei der die Kamera an einem UAV (engl. unmanned aerial vehicle) montiert ist. Dazu sollte (1) ein Lösung entwickelt werden die kostengünstig ist. Weiters sollte das Gerät von möglichst kleiner Größe sein um es einfach an einer Kamera montieren zu können. Im Rahmen dieser Arbeit wurde dazu eine System aus freier Hardware und quelloffener Software entwickelt. Für die Auswertung wurde (2) eine Prozesskette zu realisiert die eine möglichst automatische Berechnung der direkten Georeferenzierung erlaubt. (3) Mit der entwickelten Lösung sollen Genauigkeiten der Orientierungswinkel im Bereich von 1° erreicht werden.
Das entwickelte System basiert auf dem Open Source Autopilot-Projekt "ArduPilot, APM2.0". Der APM2.0 ist ein Autopilot für UAVs und ist mit einer MEMS-IMU, einem GNSS Empfänger und einem Magnetometer ausgestattet. Die Software des APM2.0 wurde für die Zwecke der direkten Georeferenzierung angepasst und es wurde eine Synchronisation der Sensoren mit zwei Kameras realisiert. Zum Einsatz kam einerseits die Spiegelreflex Kamera Nikon D300 und andererseits die Kompaktkamera Ricoh GR Digital IV. Für letztere wurde auch eine Kamerakalibrierung (Bestimmung der inneren Orientierung und Verzeichnung) durchgeführt. Die Berechnung der Orientierungswinkel der direkte Georeferenzierung wird anhand einer Strapdown-Rechnung realisiert, während die Position rein aus den GNSS-Beobachtungen übernommen wird. Darüber hinaus werden im Rahmen einer Sensorfusion mehrere Beobachtungen kombiniert um die Strapdown-Rechnung zu stützen. Es werden Kalibrierungsmethoden verwendet die ausschließlich auf den Messungen der verwendeten Sensoren beruhen. Als Ergebnis stehen die Elemente der äußeren Orientierung (Position und Orientierungswinkel) zur Verfügung. Für die Verspeicherung der Resultate wurden verschiedenen Lösungen (direkt in den digitalen Photos oder in Zusatzdateien) entwickelt. Die praktische Untersuchung der entwickelten Hard- und Software wurde anhand zweier Testdatensätzen untersucht. Die Analyse der Testdaten beschränkt sich rein auf die Orientierungswinkel. Es wurden Genauigkeiten für Pitch- und Roll-Winkel von 0.5° und für den Yaw-Winkel von 1° erreicht. Die Genauigkeit der GNSS-Positionsbestimmung liegt bei 2-3m mit den verwendeten Empfänger.
Die direkte Georeferenzierung ermöglicht die Bestimmung der äußeren Orientierung (Position und Orientierungswinkel) für Photographien, ohne Passpunkte in den Bildern messen zu müssen. Das Hauptziel dieser Arbeit liegt in der Entwicklung eines Systems zur direkten Georeferenzierung von Photos welche mit der Hand aufgenommen werden oder bei der die Kamera an einem UAV (engl. unmanned aerial vehicle) montiert ist. Dazu sollte (1) ein Lösung entwickelt werden die kostengünstig ist. Weiters sollte das Gerät von möglichst kleiner Größe sein um es einfach an einer Kamera montieren zu können. Im Rahmen dieser Arbeit wurde dazu eine System aus freier Hardware und quelloffener Software entwickelt. Für die Auswertung wurde (2) eine Prozesskette zu realisiert die eine möglichst automatische Berechnung der direkten Georeferenzierung erlaubt. (3) Mit der entwickelten Lösung sollen Genauigkeiten der Orientierungswinkel im Bereich von 1° erreicht werden.
Das entwickelte System basiert auf dem Open Source Autopilot-Projekt "ArduPilot, APM2.0". Der APM2.0 ist ein Autopilot für UAVs und ist mit einer MEMS-IMU, einem GNSS Empfänger und einem Magnetometer ausgestattet. Die Software des APM2.0 wurde für die Zwecke der direkten Georeferenzierung angepasst und es wurde eine Synchronisation der Sensoren mit zwei Kameras realisiert. Zum Einsatz kam einerseits die Spiegelreflex Kamera Nikon D300 und andererseits die Kompaktkamera Ricoh GR Digital IV. Für letztere wurde auch eine Kamerakalibrierung (Bestimmung der inneren Orientierung und Verzeichnung) durchgeführt. Die Berechnung der Orientierungswinkel der direkte Georeferenzierung wird anhand einer Strapdown-Rechnung realisiert, während die Position rein aus den GNSS-Beobachtungen übernommen wird. Darüber hinaus werden im Rahmen einer Sensorfusion mehrere Beobachtungen kombiniert um die Strapdown-Rechnung zu stützen. Es werden Kalibrierungsmethoden verwendet die ausschließlich auf den Messungen der verwendeten Sensoren beruhen. Als Ergebnis stehen die Elemente der äußeren Orientierung (Position und Orientierungswinkel) zur Verfügung. Für die Verspeicherung der Resultate wurden verschiedenen Lösungen (direkt in den digitalen Photos oder in Zusatzdateien) entwickelt. Die praktische Untersuchung der entwickelten Hard- und Software wurde anhand zweier Testdatensätzen untersucht. Die Analyse der Testdaten beschränkt sich rein auf die Orientierungswinkel. Es wurden Genauigkeiten für Pitch- und Roll-Winkel von 0.5° und für den Yaw-Winkel von 1° erreicht. Die Genauigkeit der GNSS-Positionsbestimmung liegt bei 2-3m mit den verwendeten Empfänger.
Combined estimation of geocenter motion from GRACE gravimetry and IGS station loading deformation
Institut für Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2014
Betreuer: Univ.-Prof. Dr. Torsten Mayer-Gürr
Betreuer: Univ.-Prof. Dr. Torsten Mayer-Gürr
Kurzfassung/Abstract
Die Erde ist ein dynamisches System, wodurch es zu Verlagerungen von Massen (Auflasten) auf der Erdoberfläche kommt. Wenn dies nun im Interatialsystem betrachtet wird, verursachen diese Massenverlagerungen eine Bewegung des Massenzentrums der festen Erde (CE). Jedoch verursachen sie keine Änderung des Massenzentrums des Erdsystems (CM), da das Erdsystem die feste Erde sowie die Oberflächenauflasten beinhaltet. Die Differenz des CE und des CM wird in dieser Arbeit als "Geozentrumsbewegung" bezeichnet. Deformationen der Erdkruste, verursacht durch Auflasten, können mit Hilfe von GPS-Stationen beobachtet werden. Da GPS-Stationen des Internationalen GNSS Services (IGS) weltweit verteilt sind, wurden deren Beobachtungsdaten zur Berechnung der Geozentrumsbewegung herangezogen. Genau genommen wurden mit diesen Beobachtungen Auflast-Potentialkoeffizienten geschätzt. Da die Grad-1 Potentialkoeffizienten das Massenzentrum definieren und daher abhängig vom Referenzrahmen sind, kann die Geozentrumsbewegung direkt mit diesen in Verbindung gebracht werden. Darüber hinaus wurden Auflast-Potentialkoeffizienten, abgeleitet aus GRACE (Gravity Recovery And Climate Experiment) Beobachtungen, einem Ausgleich mit GPS-Beobachtungen hinzugeführt. Da GRACE-Satelliten das CM umkreisen, können die Grad-1 Potentialkoeffizienten nicht direkt aus GRACE-Beobachtungen abgeleitet werden. Jedoch können durch das Hinzufügen von GRACE-Daten Koeffizienten mit niedrigen Grad besser separiert und somit die Geozentrumsbewegung genauer berechnet werden. Ebenso wurden sieben Helmert-Transformationsparameter gleichzeitig mit den Auflast-Potentialkoeffizienten geschätzt. Diese repräsentieren Deformationsbewegungen, welche nicht durch Auflast verursacht wurden.
Die Erde ist ein dynamisches System, wodurch es zu Verlagerungen von Massen (Auflasten) auf der Erdoberfläche kommt. Wenn dies nun im Interatialsystem betrachtet wird, verursachen diese Massenverlagerungen eine Bewegung des Massenzentrums der festen Erde (CE). Jedoch verursachen sie keine Änderung des Massenzentrums des Erdsystems (CM), da das Erdsystem die feste Erde sowie die Oberflächenauflasten beinhaltet. Die Differenz des CE und des CM wird in dieser Arbeit als "Geozentrumsbewegung" bezeichnet. Deformationen der Erdkruste, verursacht durch Auflasten, können mit Hilfe von GPS-Stationen beobachtet werden. Da GPS-Stationen des Internationalen GNSS Services (IGS) weltweit verteilt sind, wurden deren Beobachtungsdaten zur Berechnung der Geozentrumsbewegung herangezogen. Genau genommen wurden mit diesen Beobachtungen Auflast-Potentialkoeffizienten geschätzt. Da die Grad-1 Potentialkoeffizienten das Massenzentrum definieren und daher abhängig vom Referenzrahmen sind, kann die Geozentrumsbewegung direkt mit diesen in Verbindung gebracht werden. Darüber hinaus wurden Auflast-Potentialkoeffizienten, abgeleitet aus GRACE (Gravity Recovery And Climate Experiment) Beobachtungen, einem Ausgleich mit GPS-Beobachtungen hinzugeführt. Da GRACE-Satelliten das CM umkreisen, können die Grad-1 Potentialkoeffizienten nicht direkt aus GRACE-Beobachtungen abgeleitet werden. Jedoch können durch das Hinzufügen von GRACE-Daten Koeffizienten mit niedrigen Grad besser separiert und somit die Geozentrumsbewegung genauer berechnet werden. Ebenso wurden sieben Helmert-Transformationsparameter gleichzeitig mit den Auflast-Potentialkoeffizienten geschätzt. Diese repräsentieren Deformationsbewegungen, welche nicht durch Auflast verursacht wurden.
Absolute und relative Orientierung von TLS-Punktwolken mit TLS-Radoms
Department für Geodäsie und Geoinformation, Forschungsgruppe Photogrammetrie, Technische Universität Wien, 2013
Betreuer: Dipl.-Ing. Dr. Christian Briese, Dipl.Ing. Philipp Glira, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Betreuer: Dipl.-Ing. Dr. Christian Briese, Dipl.Ing. Philipp Glira, Univ.Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
In dieser Arbeit wird das Konzept eines hybriden Targets - des sogenannten TLS-Radoms - realisiert und danach wird das entwickelte Target praktisch erprobt. Das TLS-Radom besteht aus einem kugelförmigen Radom, das zur relativen Orientierung (auch Registrierung genannt: Verknüpfung von TLS-Punktwolken mehrerer Standpunkte) von TLS-Punktwolken dient und einer GNSS-Antenne, die im Inneren des Radoms montiert ist. Die mittels GNSS bestimmten Koordinaten des TLS-Radommittelpunktes werden für die absolute Orientierung (Georeferenzierung) der Punktwolke verwendet. Mit diesem hybriden Target kann die Georeferenzierung direkt bestimmt werden, ohne dieTLS-Standpunkte oder Targets tachymetrisch zu bestimmen.
Im Feld werden die fünf entwickelten Targets anhand von zwei Testgebieten untersucht. Im ersten Testgebiet werden die Differenzen von zwei verschiedenen Algorithmen, die den Radommittelpunkt berechnen, dargestellt. Danach werden die Effekte von verschiedenen Georeferenzierungsvarianten aufgezeigt, sowie deren Auswirkung auf die Polarbeobachtungen der Radommittelpunkte mittels Varianzkomponentenanalye, ermittelt. Im zweiten Testgebiet liegt der Schwerpunkt der Auswertung auf der Untersuchung der Genauigkeit, mit der die TLS-Punktwolke georeferenziert werden kann. Die Genauigkeit der TLS- und TLS-Radom-Standpunkte wird anhand von Fehlerellipsen dargestellt. Mit Hilfe der genaueren Georeferenzierung der TLS-Punktwolke, wird eine ALS-Punktwolke verbessert. Die beiden Punktwolken werden einander mit einem ICP-Algorithmus (Iterative Closest Point Algorithm), wobei die TLS-Punktwolke festgehalten wird, angenähert.
Vorteile des hybriden Targets sind unter anderem die direkte (schnellere) Georeferenzierung der TLS-Daten und diese georeferenzierte Punktwolke kann verwendet werden um die Feingeoreferenzierung von ALS-Daten (z. B. mit einem ICP-Algorithmus) zu verbessern.
Die Koordinatengenauigkeit (empirische Standardabweichung) von TLS- und TLS-Radoms-Standpunkten liegt für ein untersuchtes Testgebiet typischerweise unter 1 cm. Der Median der Höhendifferenzen zwischen einer TLS-Punktwolke, die mit Hilfe von hybriden Targets georeferenziert wurde, und einer ALS-Punktwolke, konnte von einem Ausgangswert von -5.7 cm mittels ICP-Algorithmus auf +0.6 cm verbessert werden. Die TLS-Punktwolke wurde dabei festgehalten.
In dieser Arbeit wird das Konzept eines hybriden Targets - des sogenannten TLS-Radoms - realisiert und danach wird das entwickelte Target praktisch erprobt. Das TLS-Radom besteht aus einem kugelförmigen Radom, das zur relativen Orientierung (auch Registrierung genannt: Verknüpfung von TLS-Punktwolken mehrerer Standpunkte) von TLS-Punktwolken dient und einer GNSS-Antenne, die im Inneren des Radoms montiert ist. Die mittels GNSS bestimmten Koordinaten des TLS-Radommittelpunktes werden für die absolute Orientierung (Georeferenzierung) der Punktwolke verwendet. Mit diesem hybriden Target kann die Georeferenzierung direkt bestimmt werden, ohne dieTLS-Standpunkte oder Targets tachymetrisch zu bestimmen.
Im Feld werden die fünf entwickelten Targets anhand von zwei Testgebieten untersucht. Im ersten Testgebiet werden die Differenzen von zwei verschiedenen Algorithmen, die den Radommittelpunkt berechnen, dargestellt. Danach werden die Effekte von verschiedenen Georeferenzierungsvarianten aufgezeigt, sowie deren Auswirkung auf die Polarbeobachtungen der Radommittelpunkte mittels Varianzkomponentenanalye, ermittelt. Im zweiten Testgebiet liegt der Schwerpunkt der Auswertung auf der Untersuchung der Genauigkeit, mit der die TLS-Punktwolke georeferenziert werden kann. Die Genauigkeit der TLS- und TLS-Radom-Standpunkte wird anhand von Fehlerellipsen dargestellt. Mit Hilfe der genaueren Georeferenzierung der TLS-Punktwolke, wird eine ALS-Punktwolke verbessert. Die beiden Punktwolken werden einander mit einem ICP-Algorithmus (Iterative Closest Point Algorithm), wobei die TLS-Punktwolke festgehalten wird, angenähert.
Vorteile des hybriden Targets sind unter anderem die direkte (schnellere) Georeferenzierung der TLS-Daten und diese georeferenzierte Punktwolke kann verwendet werden um die Feingeoreferenzierung von ALS-Daten (z. B. mit einem ICP-Algorithmus) zu verbessern.
Die Koordinatengenauigkeit (empirische Standardabweichung) von TLS- und TLS-Radoms-Standpunkten liegt für ein untersuchtes Testgebiet typischerweise unter 1 cm. Der Median der Höhendifferenzen zwischen einer TLS-Punktwolke, die mit Hilfe von hybriden Targets georeferenziert wurde, und einer ALS-Punktwolke, konnte von einem Ausgangswert von -5.7 cm mittels ICP-Algorithmus auf +0.6 cm verbessert werden. Die TLS-Punktwolke wurde dabei festgehalten.
Error Detection in Environmental Sensor Network
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2014
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Betreuer: FH-Prof. Dr. Karl-Heinrich Anders, FH-Prof. Dr. Gernot Paulus
Kurzfassung/Abstract
Environmental sensors network is an important component of hydro-meteorological studies. The different monitored long-term datasets can be used to do multiple analyses. However, the quality, accuracy and uncertainties of the measured data are increasingly concerned by researchers. This thesis project, Automated Error Detection in Hydro-Metrological Sensor Network, is using different measured hydro-meteorological data (e.g. temperature, precipitation, wind, water stage, water temperature, etc.) measured in Silberegg AKL Monitoring Station. This project aims to clearly visualize the errors in the data, and automatically detect errors across the datasets. The whole process of this project is fully embedded in the MATLAB environment and using temperature as a realism test. The AEDM will be adopted and implemented in the UMMO project to locate the errors in the datasets, and the detected data could be further modified according to the research needs or identify desired events with individuals' research interests
In this study, the spectrogram is a powerful tool to represent the final results and leads to further works likely error pattern analysis. However, the error can be recognized by human also as a very important criterion, because once human eyes can read the spectrogram clearly. The next step will be developing a model which recognizes every type of error automatically.
This project addresses the issue of the automatized recognition of error in environmental time-series dataset and their STFT spectrograms. This model is able to localize and extract features of erroneous data and determine them automatically, which are used to classify and determine the environmental data. Minor erroneous data recognition in cases of temperature datasets from different regions is successfully performed under normal circumstances. This is applied well to the automatic recognition of multiple types matrix generated by the spectrograms.
Environmental sensors network is an important component of hydro-meteorological studies. The different monitored long-term datasets can be used to do multiple analyses. However, the quality, accuracy and uncertainties of the measured data are increasingly concerned by researchers. This thesis project, Automated Error Detection in Hydro-Metrological Sensor Network, is using different measured hydro-meteorological data (e.g. temperature, precipitation, wind, water stage, water temperature, etc.) measured in Silberegg AKL Monitoring Station. This project aims to clearly visualize the errors in the data, and automatically detect errors across the datasets. The whole process of this project is fully embedded in the MATLAB environment and using temperature as a realism test. The AEDM will be adopted and implemented in the UMMO project to locate the errors in the datasets, and the detected data could be further modified according to the research needs or identify desired events with individuals' research interests
In this study, the spectrogram is a powerful tool to represent the final results and leads to further works likely error pattern analysis. However, the error can be recognized by human also as a very important criterion, because once human eyes can read the spectrogram clearly. The next step will be developing a model which recognizes every type of error automatically.
This project addresses the issue of the automatized recognition of error in environmental time-series dataset and their STFT spectrograms. This model is able to localize and extract features of erroneous data and determine them automatically, which are used to classify and determine the environmental data. Minor erroneous data recognition in cases of temperature datasets from different regions is successfully performed under normal circumstances. This is applied well to the automatic recognition of multiple types matrix generated by the spectrograms.