- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2002
Abschlussarbeiten 2002
Wissensbasierte Analyse von Verschiebungsdaten im Tunnelbau
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2002. Begutachter: O.Univ. Prof. Dr.-Ing. H. Kahmen, Institut für Geodäsie und Geophysik, Abteilung Angewandte Geodäsie und Ingenieurgeodäsie und O.Univ. Prof. Dipl.-Ing. Dr. T. Eiter, Institut für Informationssysteme, Abteilung für Wissensbasierte Systeme.
Kurzfassung/Abstract
In der Dissertation wird ein Prototyp eines wissensbasierten Systems zur automatischen Analyse geodätisch ermittelter Verschiebungsdaten im Tunnelbau unter Verwendung einer Expertensystem Shell entwickelt. Das System stellt ein Unterstützungswerkzeug für den Geotechniker dar, welches eine Teilaufgabe seiner geotechnischen Interpretation, konkret das Erkennen von Auffälligkeiten in den Verschiebungsdaten, leistet und damit zur Verbesserung der Sicherheit und Wirtschaftlichkeit von Bauvorhaben beiträgt. Es bietet insbesonders die Möglichkeiten, große Datenmengen rasch vorab zu analysieren, die Daten automatischer Messsysteme online zu überwachen und die ermittelten Ergebnisse webtauglich aufzubereiten. Das für die beschriebene Teilaufgabe nötige Wissen wird in der Arbeit eruiert, untersucht und strukturiert. Es wird als unsicheres, empirisches, vielfach auch intuitives und subjektives Wissen charakterisiert. Kennzeichnend für die zugrundeliegenden Verschiebungsdaten und auch weiterer in den Interpretationsprozess einzubeziehender Sekundärdaten ist deren Ungenauigkeit, Fehlerhaftigkeit und Unvollständigkeit, generell deren Heterogenität. Aufgrund dieser Voraussetzungen wird ein heuristischer, datengetriebener und regelbasierter Ansatz zur Problemlösung verfolgt, bei dem die Verschiebungsdaten sowie weitere relevante Zusatzdaten zunächst als Fakten repräsentiert werden. Diese werden unter Nutzung projektbezogenen Wissens bewertet. Mittels Regeln wird das Problemlösungswissen formuliert. Im Rahmen der Arbeit wird dieses für drei ausgewählte Analyseaspekte implementiert. Diese bilden das Erkennen einer auffälligen Geschwindigkeitszunahme von Verschiebungen unter Berücksichtigung des Baufortschritts, das Erkennen auffälliger Verschiebungen auf Basis von Prognose- bzw. Erwartungswissen und das Erkennen eines systematischen Messfehlers in den Ausgangsdaten unter Verwendung einer Methode quantitativen Probabilistischen Schließens. Experimente mit tatsächlichen und simulierten Daten erproben die Leistungsfähigkeit der entwickelten Methoden. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universtität Wien als Heft 63 veröffentlicht.
In der Dissertation wird ein Prototyp eines wissensbasierten Systems zur automatischen Analyse geodätisch ermittelter Verschiebungsdaten im Tunnelbau unter Verwendung einer Expertensystem Shell entwickelt. Das System stellt ein Unterstützungswerkzeug für den Geotechniker dar, welches eine Teilaufgabe seiner geotechnischen Interpretation, konkret das Erkennen von Auffälligkeiten in den Verschiebungsdaten, leistet und damit zur Verbesserung der Sicherheit und Wirtschaftlichkeit von Bauvorhaben beiträgt. Es bietet insbesonders die Möglichkeiten, große Datenmengen rasch vorab zu analysieren, die Daten automatischer Messsysteme online zu überwachen und die ermittelten Ergebnisse webtauglich aufzubereiten. Das für die beschriebene Teilaufgabe nötige Wissen wird in der Arbeit eruiert, untersucht und strukturiert. Es wird als unsicheres, empirisches, vielfach auch intuitives und subjektives Wissen charakterisiert. Kennzeichnend für die zugrundeliegenden Verschiebungsdaten und auch weiterer in den Interpretationsprozess einzubeziehender Sekundärdaten ist deren Ungenauigkeit, Fehlerhaftigkeit und Unvollständigkeit, generell deren Heterogenität. Aufgrund dieser Voraussetzungen wird ein heuristischer, datengetriebener und regelbasierter Ansatz zur Problemlösung verfolgt, bei dem die Verschiebungsdaten sowie weitere relevante Zusatzdaten zunächst als Fakten repräsentiert werden. Diese werden unter Nutzung projektbezogenen Wissens bewertet. Mittels Regeln wird das Problemlösungswissen formuliert. Im Rahmen der Arbeit wird dieses für drei ausgewählte Analyseaspekte implementiert. Diese bilden das Erkennen einer auffälligen Geschwindigkeitszunahme von Verschiebungen unter Berücksichtigung des Baufortschritts, das Erkennen auffälliger Verschiebungen auf Basis von Prognose- bzw. Erwartungswissen und das Erkennen eines systematischen Messfehlers in den Ausgangsdaten unter Verwendung einer Methode quantitativen Probabilistischen Schließens. Experimente mit tatsächlichen und simulierten Daten erproben die Leistungsfähigkeit der entwickelten Methoden. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universtität Wien als Heft 63 veröffentlicht.
Erzeugung von qualitativ hochwertigen 3D Photomodellen für internetbasierte Anwendungen mit besonderem Augenmerk auf Objekte der Nahbereichsphotogrammetrie
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2002. 1. Begutachter: Ao.Prof. Dipl.-Ing. Dr. J. Jansa, Institut für Photogrammetrie und Fernerkundung, 2. Begutachter: O.Univ. Prof. Dipl.-Ing. Dr. W. Purgathofer, Institut für Computergraphik und Algorithmen.
Kurzfassung/Abstract
Die Wissenschaft der Photogrammetrie befasst sich unter anderem mit der geometrischen Auswertung von photographischen Bildern. Wendet man photogrammetrische Methoden auf Objekte an, die sich in "geringer" Entfernung zur Kamera befinden, so spricht man von Nahbereichsphotogrammetrie. Die klassische Zielsetzung liegt hier in der exakten Dokumentation einer Objektgeometrie. In den letzten Jahren ist im Bereich der digitalen Nahbereichsphotogrammetrie ein neues Produkt entstanden, das 3D-Photomodell. Bei einem Photomodell handelt es sich um ein durch Vermessung entstandenes dreidimensionales Oberflächenmodell eines realen Objektes mit photographischer Textur. Ein solches Modell ist bestens geeignet, um einen übersichtlichen und detaillierten Eindruck einer bestehenden räumlichen Situation zu vermitteln. Die Erstellung von Photomodellen erfolgt zur Zeit ausschließlich interaktiv und größtenteils punktbezogen, was bei komplexen Objekten zu langen Auswertezeiten und hohen Produktionskosten führt. Ein weiteres Problem bei der Erzeugung von Photomodellen entsteht durch die Verwendung verschiedener, zum Teil an unterschiedlichen Tagen aufgenommener Bilder. Dadurch kommt es oft zu störenden Helligkeits- und Farbunterschieden zwischen den einzelnen Aufnahmen. Der erste Schwerpunkt der Arbeit zeigt Wege auf, Photomodelle wirtschaftlich zu erstellen, ohne dabei sichtbare Qualitätseinbußen in geometrischer und radiometrischer Hinsicht in Kauf nehmen zu müssen. Werden 3D-Photomodelle interaktiv visualisiert, zeigt sich der große Vorteil gegenüber statischen Bildern. Komplexe räumliche Sachverhalte können auch für unerfahrene Benutzer sehr anschaulich dargestellt werden. Für diese interaktive Visualisierung werden im Rahmen dieser Arbeit keine eigenen Algorithmen für das Rendering entwickelt, sondern ausschließlich Standardwerkzeuge aus dem Umfeld der Internet-Technologien eingesetzt, mit dem Ziel Photomodelle auf einfache Weise einer breiten Öffentlichkeit zugänglich zu machen. Ein solches Werkzeug ist zum Beispiel VRML (Virtual Reality Modeling Language), eine Beschreibungssprache für die interaktive Visualisierung von 3D-Daten im Internet. Mit der Darstellung im Format VRML eröffnet sich auch die Möglichkeit Links zu weiterführenden Sachinformationen im Photomodell zu verankern und so ein 3D Informationssystem im Internet zu schaffen. Dabei ist jedoch zu beachten, dass das Photomodell per Definition die maßstäbliche Nachbildung einer realen Umgebung sein soll. Dieser Umstand schließt - streng genommen - einige gängige Techniken zur Reduktion der Datenmenge aus. So werden etwa ähnliche Elemente des Modells nicht durch die Kopie eines Prototyps, sondern jeweils extra durch ihre eigene typische Geometrie und Phototextur dargestellt. Aus diesem Grund kann das Photomodell als vermessungstechnisches Produkt gesehen werden, dass sich für den Einsatz zur Dokumentation, Planung oder Simulation eignet. Die interaktive Visualisierung des Photomodells für dieses Anwendung bildet daher den zweiten Schwerpunkt der vorliegenden Arbeit, wobei besonderes Augenmerk auf die Bewältigung großer Datenmengen gelegt wird. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universität Wien als Heft 61, ISBN 3-9500791-6-5, veröffentlicht.
Die Wissenschaft der Photogrammetrie befasst sich unter anderem mit der geometrischen Auswertung von photographischen Bildern. Wendet man photogrammetrische Methoden auf Objekte an, die sich in "geringer" Entfernung zur Kamera befinden, so spricht man von Nahbereichsphotogrammetrie. Die klassische Zielsetzung liegt hier in der exakten Dokumentation einer Objektgeometrie. In den letzten Jahren ist im Bereich der digitalen Nahbereichsphotogrammetrie ein neues Produkt entstanden, das 3D-Photomodell. Bei einem Photomodell handelt es sich um ein durch Vermessung entstandenes dreidimensionales Oberflächenmodell eines realen Objektes mit photographischer Textur. Ein solches Modell ist bestens geeignet, um einen übersichtlichen und detaillierten Eindruck einer bestehenden räumlichen Situation zu vermitteln. Die Erstellung von Photomodellen erfolgt zur Zeit ausschließlich interaktiv und größtenteils punktbezogen, was bei komplexen Objekten zu langen Auswertezeiten und hohen Produktionskosten führt. Ein weiteres Problem bei der Erzeugung von Photomodellen entsteht durch die Verwendung verschiedener, zum Teil an unterschiedlichen Tagen aufgenommener Bilder. Dadurch kommt es oft zu störenden Helligkeits- und Farbunterschieden zwischen den einzelnen Aufnahmen. Der erste Schwerpunkt der Arbeit zeigt Wege auf, Photomodelle wirtschaftlich zu erstellen, ohne dabei sichtbare Qualitätseinbußen in geometrischer und radiometrischer Hinsicht in Kauf nehmen zu müssen. Werden 3D-Photomodelle interaktiv visualisiert, zeigt sich der große Vorteil gegenüber statischen Bildern. Komplexe räumliche Sachverhalte können auch für unerfahrene Benutzer sehr anschaulich dargestellt werden. Für diese interaktive Visualisierung werden im Rahmen dieser Arbeit keine eigenen Algorithmen für das Rendering entwickelt, sondern ausschließlich Standardwerkzeuge aus dem Umfeld der Internet-Technologien eingesetzt, mit dem Ziel Photomodelle auf einfache Weise einer breiten Öffentlichkeit zugänglich zu machen. Ein solches Werkzeug ist zum Beispiel VRML (Virtual Reality Modeling Language), eine Beschreibungssprache für die interaktive Visualisierung von 3D-Daten im Internet. Mit der Darstellung im Format VRML eröffnet sich auch die Möglichkeit Links zu weiterführenden Sachinformationen im Photomodell zu verankern und so ein 3D Informationssystem im Internet zu schaffen. Dabei ist jedoch zu beachten, dass das Photomodell per Definition die maßstäbliche Nachbildung einer realen Umgebung sein soll. Dieser Umstand schließt - streng genommen - einige gängige Techniken zur Reduktion der Datenmenge aus. So werden etwa ähnliche Elemente des Modells nicht durch die Kopie eines Prototyps, sondern jeweils extra durch ihre eigene typische Geometrie und Phototextur dargestellt. Aus diesem Grund kann das Photomodell als vermessungstechnisches Produkt gesehen werden, dass sich für den Einsatz zur Dokumentation, Planung oder Simulation eignet. Die interaktive Visualisierung des Photomodells für dieses Anwendung bildet daher den zweiten Schwerpunkt der vorliegenden Arbeit, wobei besonderes Augenmerk auf die Bewältigung großer Datenmengen gelegt wird. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universität Wien als Heft 61, ISBN 3-9500791-6-5, veröffentlicht.
The Wayfinding Metaphor—Comparing the Semantics of Wayfinding in the Phyiscal World and the WWW
Institut für Geoinformation und Landesvermessung, Technische Universität Wien, 2002. Begutacher: Univ.Prof. Dr. A. Frank, Univ.Prof. Dr. W. Kuhn (Universität Münster).
Kurzfassung/Abstract
Wayfinding is a common human task. The terms ‘wayfinding’ and ‘navigation’ are traditionally associated with an activity that takes place in the real world. The development of new electronic media induces humans to navigate artificially created environments, e.g., the World Wide Web (WWW), computer games, or virtual environments. Although real environment and artificial environment show different features—e.g., in the definition of a distance between places or in the organization of space—we claim that the concepts of wayfinding in the real world can also be found in the WWW. A goal of the thesis is to determine what the term wayfinding means, i.e., to describe the semantics of wayfinding. Analyzing several wayfinding definitions in literature we found that there is no unique meaning for the term wayfinding, although there seem to be some core properties of the underlying process. Therefore we consider wayfinding to represent a radial category. From the definitions analyzed we get the central meaning of wayfinding, and describe it through a set of axioms. The axioms define constraints on agent and environment. If the axioms are satisfied, the activity performed by the agent describes a wayfinding process. Another goal of the thesis is to show that within the wayfinding metaphor, the semantics of wayfinding is similar for both the real world and the WWW. We hereby abstract the conceptual wayfinding model through algebraic specifications and give two parallel instantiations. We show that both instantiations satisfy the axioms, and thus the term wayfinding can also be used for the Web space—expressing a similar semantics as in the physical world. The axioms are invariant under the applied strategy and the type of environment. Therefore we can choose any wayfinding strategy that is capable of coping the wayfinding tasks given in the two cases studies (where the environment is unknown to the agent). The chosen wayfinding strategy relies on ‘information in the world’ and applies a semantic decision criterion. A wayfinding simulation shows that the formal algebraic specifications of the agent-based model are executable.
Wayfinding is a common human task. The terms ‘wayfinding’ and ‘navigation’ are traditionally associated with an activity that takes place in the real world. The development of new electronic media induces humans to navigate artificially created environments, e.g., the World Wide Web (WWW), computer games, or virtual environments. Although real environment and artificial environment show different features—e.g., in the definition of a distance between places or in the organization of space—we claim that the concepts of wayfinding in the real world can also be found in the WWW. A goal of the thesis is to determine what the term wayfinding means, i.e., to describe the semantics of wayfinding. Analyzing several wayfinding definitions in literature we found that there is no unique meaning for the term wayfinding, although there seem to be some core properties of the underlying process. Therefore we consider wayfinding to represent a radial category. From the definitions analyzed we get the central meaning of wayfinding, and describe it through a set of axioms. The axioms define constraints on agent and environment. If the axioms are satisfied, the activity performed by the agent describes a wayfinding process. Another goal of the thesis is to show that within the wayfinding metaphor, the semantics of wayfinding is similar for both the real world and the WWW. We hereby abstract the conceptual wayfinding model through algebraic specifications and give two parallel instantiations. We show that both instantiations satisfy the axioms, and thus the term wayfinding can also be used for the Web space—expressing a similar semantics as in the physical world. The axioms are invariant under the applied strategy and the type of environment. Therefore we can choose any wayfinding strategy that is capable of coping the wayfinding tasks given in the two cases studies (where the environment is unknown to the agent). The chosen wayfinding strategy relies on ‘information in the world’ and applies a semantic decision criterion. A wayfinding simulation shows that the formal algebraic specifications of the agent-based model are executable.
INSAR-Blockausgleich
Abteilung für Photogrammetrie und Fernerkundung, Institut für Angewandte Geodäsie, TU Graz, 2002. Begutachter: em. Univ.-Prof. Dr. G. Brandstätter, Dr. W. Schuh
Kurzfassung/Abstract
Die SAR-Interferometrie (INSAR) als Standardverfahren zur Erstellung digitaler Geländemodelle (DGM) aus Single-look-complex-Daten wird in drei Verarbeitungsschritte: Phasenprozessierung, Parameterausgleich (AG) und DGM-Generierung, unterteilt. Wichtige Stationen der Prozessierung der interferometrischen Phase (Koregistrierung, Berechnung von INSAR-Produkten, Elimination der geometriebedingten Phase, Rauschreduzierung und Auflösung der Phasenmehrdeutigkeit) werden anhand von ERS-Tandemdaten vorgestellt. Der Schwerpunkt der Arbeit liegt im AG der INSAR-Abbildungsparameter. Die vorgeschlagene, mathematische Beschreibung erlaubt die eindeutige Beziehung zwischen Bild- und Bodenkoordinaten eines abgebildeten Punktes. Neue Passpunktarten, wie z.B. Phasenpasspunkte, sowie darauf aufbauende AG-Konzepte werden diskutiert. Spezielle Aspekte der shuttle radar topographic mission runden diese Betrachtungen ab. In Analogie zum photogrammetrischen Bündelblock-AG wird der vorgestellte AG auf Verbände von INSAR-Modellen erweitert. Die Behandlung von Same-orbit-Szenen wird herausgearbeitet, sowie die Punktmessungen um Verknüpfungspunktarten erweitert. Betrachtungen zum numerischen Verhalten des AG-Systems werden angestellt. Die vorgestellten INSAR-AG-Verfahren werden anhand von Daten der ERS-Tandemmission für Gebiete in Bayern diskutiert. Für die DGM-Generierung wird ausgehend von bekannten Phase-zu-Höhe-Konvertierungen ein neuer Ansatz, der sphärische Trigonometrie nutzt, entwickelt.
Die SAR-Interferometrie (INSAR) als Standardverfahren zur Erstellung digitaler Geländemodelle (DGM) aus Single-look-complex-Daten wird in drei Verarbeitungsschritte: Phasenprozessierung, Parameterausgleich (AG) und DGM-Generierung, unterteilt. Wichtige Stationen der Prozessierung der interferometrischen Phase (Koregistrierung, Berechnung von INSAR-Produkten, Elimination der geometriebedingten Phase, Rauschreduzierung und Auflösung der Phasenmehrdeutigkeit) werden anhand von ERS-Tandemdaten vorgestellt. Der Schwerpunkt der Arbeit liegt im AG der INSAR-Abbildungsparameter. Die vorgeschlagene, mathematische Beschreibung erlaubt die eindeutige Beziehung zwischen Bild- und Bodenkoordinaten eines abgebildeten Punktes. Neue Passpunktarten, wie z.B. Phasenpasspunkte, sowie darauf aufbauende AG-Konzepte werden diskutiert. Spezielle Aspekte der shuttle radar topographic mission runden diese Betrachtungen ab. In Analogie zum photogrammetrischen Bündelblock-AG wird der vorgestellte AG auf Verbände von INSAR-Modellen erweitert. Die Behandlung von Same-orbit-Szenen wird herausgearbeitet, sowie die Punktmessungen um Verknüpfungspunktarten erweitert. Betrachtungen zum numerischen Verhalten des AG-Systems werden angestellt. Die vorgestellten INSAR-AG-Verfahren werden anhand von Daten der ERS-Tandemmission für Gebiete in Bayern diskutiert. Für die DGM-Generierung wird ausgehend von bekannten Phase-zu-Höhe-Konvertierungen ein neuer Ansatz, der sphärische Trigonometrie nutzt, entwickelt.
Qualitative Deformationsanalyse unter Ausnützung der Farbinformation
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2002. Begutachter: O.Univ.Prof. Dr.-Ing. H. Kahmen, Institut für Geodäsie und Geophysik und Ao.Univ. Prof. Dipl.-Ing. Dr. J. Jansa, Institut für Photogrammetrie und Fernerkundung.
Kurzfassung/Abstract
In den klassischen Aufgabengebieten der Ingenieurgeodäsie ist durch die Automatisierung eine enge Verknüpfung mit der Informationsverarbeitung gegeben. Theodolite mit integrierten CCD-Kameras ermöglichen einen hohen Automatisationsgrad und stellen ein hochpräzises Messwerkzeug dar. In dieser Arbeit wird ein Messmodul beschrieben, dass einen Ansatz liefert, um das menschliche visuelle Wahrnehmungsvermögen nachzubilden. Den Ausgangspunkt stellt eine Unterscheidung von Objekten im CCD-Bild nach unterschiedlichen Farben dar. Es wird ein Algorithmus vorgestellt, der einzelne Objekte extrahiert und deren Formveränderungen analysiert. Die Bildinformation der CCD-Kamera wird für eine qualitative Deformationsanalyse genützt. Nach der Berechnung und Transformation der Abstandfunktion wird ein heuristischer Ansatz mit Regeln zur Interpretation der erhaltenen Ergebnisse gewählt. Als Ergebnis liegt dann eine semantische Aussage über das Auftreten von Deformationen vor. Aufgrund der gegebenen Lokalisation der Objekte können dann mit weiteren Messungen spezifische quantitative Untersuchungen gemacht werden. Das Verfahren wurde aus einer Reihe von empirischen Untersuchungen entwickelt, deren wichtigsten Testmessungen werden detailliert vorgestellt. Weiters wurden Untersuchungen über die Empfindlichkeit der Methode und der Signifikanz der Ergebnisse durchgeführt. Die Formulierung der Regeln und die Ergebnisse der daraus folgenden Interpretationen werden anschließend beschrieben. Schlussfolgerungen und Vorschläge zur weiteren Entwicklung des Farbsegmentverfahrens beenden diese Arbeit. Die Arbeit steht in engem Zusammenhang mit dem FWF-Forschungsprojekt „Theodolite-based and Knowledge-based Multi-Sensor-System for 3D Object Recognition“, wo dieses Farbsegmentverfahren als ein qualitatives Messmodul integriert werden kann. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universtität Wien als Heft 64 veröffentlicht.
In den klassischen Aufgabengebieten der Ingenieurgeodäsie ist durch die Automatisierung eine enge Verknüpfung mit der Informationsverarbeitung gegeben. Theodolite mit integrierten CCD-Kameras ermöglichen einen hohen Automatisationsgrad und stellen ein hochpräzises Messwerkzeug dar. In dieser Arbeit wird ein Messmodul beschrieben, dass einen Ansatz liefert, um das menschliche visuelle Wahrnehmungsvermögen nachzubilden. Den Ausgangspunkt stellt eine Unterscheidung von Objekten im CCD-Bild nach unterschiedlichen Farben dar. Es wird ein Algorithmus vorgestellt, der einzelne Objekte extrahiert und deren Formveränderungen analysiert. Die Bildinformation der CCD-Kamera wird für eine qualitative Deformationsanalyse genützt. Nach der Berechnung und Transformation der Abstandfunktion wird ein heuristischer Ansatz mit Regeln zur Interpretation der erhaltenen Ergebnisse gewählt. Als Ergebnis liegt dann eine semantische Aussage über das Auftreten von Deformationen vor. Aufgrund der gegebenen Lokalisation der Objekte können dann mit weiteren Messungen spezifische quantitative Untersuchungen gemacht werden. Das Verfahren wurde aus einer Reihe von empirischen Untersuchungen entwickelt, deren wichtigsten Testmessungen werden detailliert vorgestellt. Weiters wurden Untersuchungen über die Empfindlichkeit der Methode und der Signifikanz der Ergebnisse durchgeführt. Die Formulierung der Regeln und die Ergebnisse der daraus folgenden Interpretationen werden anschließend beschrieben. Schlussfolgerungen und Vorschläge zur weiteren Entwicklung des Farbsegmentverfahrens beenden diese Arbeit. Die Arbeit steht in engem Zusammenhang mit dem FWF-Forschungsprojekt „Theodolite-based and Knowledge-based Multi-Sensor-System for 3D Object Recognition“, wo dieses Farbsegmentverfahren als ein qualitatives Messmodul integriert werden kann. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universtität Wien als Heft 64 veröffentlicht.
3D-Geländemodelle auf Basis einer Triangulierung
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2002. Begutachter: 1. Begutachter: O.Univ. Prof. Dr.-Ing. K. Kraus, Betreuer: Ass.Prof. Dipl.-Ing. Dr. H. Kager, Institut für Photogrammetrie und Fernerkundung, 2. Begutachter: O.Univ. Prof. Mag. Dr. H. Pottmann; Institut für Geometrie, Abteilung für Geometrie im Bauwesen und im Scientific Computing.
Kurzfassung/Abstract
Der Titel der vorliegenden Arbeit ist „3D-Geländemodelle auf Basis einer Triangulierung“. Digitale Geländemodelle (abgekürzt DGM), also Beschreibungen der Höhe und Lage der Erdoberfläche in einer Form, die für die Bearbeitung auf Computern geeignet ist, werden in vielen Gebieten der Wissenschaft und Praxis erfolgreich eingesetzt. Die Anwendungen reichen von der Ableitung von Höhenschichtlinien für topographische Karten bis zur Modellierung des Wasserabflusses nach einem Unwetterereignis, um nur zwei zu nennen. In vielen geographischen Informationssystemen sind Geländemodelle ein unverzichtbarer Bestandteil. Die dort verwendeten Modelle unterliegen aber einer Einschränkung. Mathematisch formuliert sind sie Graphen bivariater Funktionen. Mehr von einer praktischen Seite beleuchtet heißt das, dass die Modellierung von Überhängen unmöglich ist, von steilen Wänden und Klippen nur sehr unzureichend möglich ist, und Höhlensysteme, aber auch Brücken ebenso nicht modelliert werden können. Um dieses Charakteristikum zum Ausdruck zu bringen werden solche Modelle oft als „2.5D“ bezeichnet. In dieser Arbeit werden Methoden zur Ableitung von Geländemodellen vorgestellt, die diesen Beschränkungen nicht unterliegen. Ein weiterer wichtiger Aspekt ist die Glattheit des Modells. Das uns umgebende Gelände ist im Allgemeinen glatt, mit Ausnahme der sogenannten Geländekanten, und daher soll auch ein DGM davon glatt sein. Es gibt verschiedene Möglichkeiten glatte 3D-Geländemodelle zu erzeugen, aber diese Arbeit ist auf jene Methoden beschränkt, die mittels einer Triangulierung erstellt werden. Die Erzeugung, Verbesserung und Ausdünnung von Triangulierungen ist nicht behandelt, aber Verweise auf die Literatur sind angegeben. Zwei verschiedene Ansätze um aus einer Triangulierung eine glatte Oberfläche zu erzeugen werden vorgestellt: Flächenverbände mit parametrischen Patches und Subdivision (Unterteilungsflächen). Im Rahmen der beiden Zugänge ist jeweils eine Methode entwickelt worden, die den Anforderungen in der topographischen Geländemodellierung genügt. Beiden entwickelten Verfahren ist gemein, dass zuerst eine Filterung der Triangulierung durchgeführt werden muss. Die Messung von Punkten und Linien am Gelände erfolgt immer mit zufälligen Fehlern, die von dem jeweils verwendeten Verfahren abhängen. Zur Filterung wird die sogenannte Einzelpunktprädiktion angewandt, die eine qualifizierte Eliminierung der zufälligen Messfehler erlaubt. Für jeden Punkt, also jeden Knoten der Triangulierung, wird eine verbesserte Position aufgrund der Lage seiner benachbarten Punkte geschätzt. Die Differenz von der beobachteten zur ‚fehlerfreien‘ Position ist der Verbesserungsvektor. Glatte Flächenverbände über einer Triangulierung werden im Allgemeinen schrittweise erstellt. Zuerst wird für jede Kante der Triangulierung eine Kurve auf der Fläche bestimmt, die die beiden Kantenendpunkte verbindet. Die in einem Knoten der Triangulierung, also in einem der gegebenen Punkte, zusammentreffenden Kurven müssen zu einer gemeinsamen Tangentialebene an die Fläche passen. Die Tangenten in den Kurvenendpunkten müssen also in einer Ebene liegen. Jedes Dreieck der Triangulierung wird nun durch ein gekrümmtes dreieckiges Flächenstück (einen Patch) ersetzt, das die Randkurven zu den Dreieckskanten interpoliert. Damit erhält man eine stetige Fläche, was aber noch nicht ausreicht, da eine glatte Fläche rekonstruiert werden soll. Bei der Bestimmung der Patches muss daher eine Konstruktion angewandt werden, die sicherstellt, dass benachbarte Patches nicht nur die Randkurve teilen, sondern auch dasselbe Feld von Tangentialebenen entlang dieser Kurve haben. Eine solche Fläche wird als geometrisch stetig erster Ordnung bezeichnet (G1). Die entwickelte Methode basiert auf (bivariaten) polynomialen Patches vierten Grades, die als Beziér-Dreiecke beschrieben werden. Der Vorteil der Beschreibung auf Basis der Beziér- Bernstein-Polynome liegt darin, dass die Koeffizienten des Polynoms in dieser Form eine geometrische Bedeutung haben. Wie oben erwähnt, werden zuerst die zufälligen Messfehler eliminiert. In diesem Schritt kann auch die Tangentialebene an die Fläche im jeweiligen Punkt abgeschätzt werden. Alternativ dazu kann der Normalvektor beispielsweise auch durch Mittelung der Normalvektoren aller Dreiecke, die in einem Punkt zusammentreffen, festgelegt werden. Im nächsten Schritt werden die Randkurven der Patches bestimmt, die in diesem Fall (univariate) Polynome vom Grad drei sind. Die Tangenten in den Endpunkten müssen normal zu den vorher bestimmten Normalvektoren sein. Damit sind die Randkurven der Patches bestimmt, es müssen noch die ‚inneren Parameter‘ (also Koeffizienten des Polynoms) bestimmt werden, die sowohl die Form des Patches im Inneren, also auch die Tangentialebenen entlang der drei Randkurven beeinflussen. Im folgenden Schritt wird entlang dieser Randkurven ein Feld von Normalvektoren bestimmt, indem die beiden Endpunkt-Normalen ineinander überblendet werden. Zu jedem Randkurvenpunkt gibt es somit einen Normalvektor zur Fläche. Die inneren Parameter der Patches werden nun so bestimmt, dass die Tangentialebenen der Patches möglichst normal auf die abgeschätzten Normalvektoren sind, die Minimierung erfolgt im Kleinste-Quadrate-Sinn. Da im Allgemeinen keine exakte Interpolation dieser Normalvektorenfelder, sondern nur eine Approximation möglich ist, entsteht keine vollständig glatte, sondern nur eine approximativ glatte Fläche, man spricht auch von ‚Epsilon-Stetigkeit‘ (epsilon-G1). Wenn zwischen zwei benachbarten Patches die Winkel zwischen den aufeinander treffenden Tangentialebenen zu groß sind, müssen die Patches unterteilt werden um mehr Freiheitsgrade und somit einen besseren Übergang zu gewährleisten. (Es soll erwähnt werden, dass diese Methode teilweise in meiner Diplomarbeit entwickelt wurde, obschon sie dort nicht so sehr im Kontext der Geländemodellierung steht.) Die zweite Methode, die zum Erstellen von glatten 3D-Geländemodellen untersucht worden ist, arbeitet nach dem Subdivision-Prinzip. Die Triangulierung wird dabei schrittweise unterteilt, wobei mehr und mehr Punkte und Kanten eingefügt werden. Die Winkel zwischen benachbarten Dreiecken nähern sich dabei 180°, wodurch die Grenzfläche, die man theoretisch nach unendlich vielen Unterteilungsschritten erhält, glatt ist. Ein großer Vorteil dieses Verfahrens ist, dass unabhängig vom Unterteilungsniveau immer eine Triangulierung vorliegt. Für diese Datenstruktur sind viele Algorithmen, also z.B. Darstellung, Verschneidung u.s.w., sehr einfach. Je nach gestellter Aufgabe kann das den Genauigkeitsanforderungen entsprechende Niveau herangezogen werden. Auch bei der entwickelten Subdivision-Methode zur Rekonstuktion der Geländefläche müssen, wie oben erwähnt, die zufälligen Messfehler zuerst eliminiert werden. Im angewandten Unterteilungsschema wird in jeder Kante ein zusätzlicher Punkt eingefügt, der aber nicht der geometrische Kantenmittelpunkt sein muss. Ein Verfeinerungsschritt besteht im Einfügen von einem Punkt in jede Kante und der entsprechenden zusätzlichen Vermaschung der Triangulierung. Die Koordinaten der neu einzufügenden Punkte werden wie folgt bestimmt: in beiden Kantenendpunkten wird eine lokale Fläche abgeschätzt. Diese approximiert den Kantenendpunkt und seine Nachbarpunkte. Für die beiden Flächen wird dann jeweils ein für den Kantenmittelpunkt repräsentativer Punkt auf den lokalen Flächen bestimmt. Das Mittel der beiden so erhaltenen Punkte ist die Position des neu einzufügenden Punktes. Auch die Kantenendpunkte erhalten neue Positionen, nämlich jene, die den jeweiligen Punkten auf der lokalen Fläche entsprechen. In den ursprünglich gegebenen Punkten werden keine rein approximierenden Flächen verwendet, sondern die dort verwendeten lokalen Flächen interpolieren den ursprünglich gegebenen Punkt und approximieren seine Nachbarn. Dadurch interpoliert die Grenzfläche die Punkte der gegebenen Triangulierung. Anhand von Vergleichen zwischen der Subdivision- und der Flächenverband-Methode wird untersucht, welches Verfahren den Anforderungen in der topographischen Geländemodellierung besser entspricht. Dazu werden sowohl tatsächliche Messungen am Gelände als auch synthetische Beispiele herangezogen. In den untersuchten Fällen sind mit den Unterteilungs- Flächen, also mit Subdivision, bessere Ergebnisse erzielt worden. Ein kurzer Ausblick auf die Anwendungen von Geländemodellen, die Überhänge, Höhlen, etc. enthalten, wird im letzten Kapitel gegeben. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universtität Wien als Heft 65, ISBN 3-9500791-7-3, veröffentlicht.
Der Titel der vorliegenden Arbeit ist „3D-Geländemodelle auf Basis einer Triangulierung“. Digitale Geländemodelle (abgekürzt DGM), also Beschreibungen der Höhe und Lage der Erdoberfläche in einer Form, die für die Bearbeitung auf Computern geeignet ist, werden in vielen Gebieten der Wissenschaft und Praxis erfolgreich eingesetzt. Die Anwendungen reichen von der Ableitung von Höhenschichtlinien für topographische Karten bis zur Modellierung des Wasserabflusses nach einem Unwetterereignis, um nur zwei zu nennen. In vielen geographischen Informationssystemen sind Geländemodelle ein unverzichtbarer Bestandteil. Die dort verwendeten Modelle unterliegen aber einer Einschränkung. Mathematisch formuliert sind sie Graphen bivariater Funktionen. Mehr von einer praktischen Seite beleuchtet heißt das, dass die Modellierung von Überhängen unmöglich ist, von steilen Wänden und Klippen nur sehr unzureichend möglich ist, und Höhlensysteme, aber auch Brücken ebenso nicht modelliert werden können. Um dieses Charakteristikum zum Ausdruck zu bringen werden solche Modelle oft als „2.5D“ bezeichnet. In dieser Arbeit werden Methoden zur Ableitung von Geländemodellen vorgestellt, die diesen Beschränkungen nicht unterliegen. Ein weiterer wichtiger Aspekt ist die Glattheit des Modells. Das uns umgebende Gelände ist im Allgemeinen glatt, mit Ausnahme der sogenannten Geländekanten, und daher soll auch ein DGM davon glatt sein. Es gibt verschiedene Möglichkeiten glatte 3D-Geländemodelle zu erzeugen, aber diese Arbeit ist auf jene Methoden beschränkt, die mittels einer Triangulierung erstellt werden. Die Erzeugung, Verbesserung und Ausdünnung von Triangulierungen ist nicht behandelt, aber Verweise auf die Literatur sind angegeben. Zwei verschiedene Ansätze um aus einer Triangulierung eine glatte Oberfläche zu erzeugen werden vorgestellt: Flächenverbände mit parametrischen Patches und Subdivision (Unterteilungsflächen). Im Rahmen der beiden Zugänge ist jeweils eine Methode entwickelt worden, die den Anforderungen in der topographischen Geländemodellierung genügt. Beiden entwickelten Verfahren ist gemein, dass zuerst eine Filterung der Triangulierung durchgeführt werden muss. Die Messung von Punkten und Linien am Gelände erfolgt immer mit zufälligen Fehlern, die von dem jeweils verwendeten Verfahren abhängen. Zur Filterung wird die sogenannte Einzelpunktprädiktion angewandt, die eine qualifizierte Eliminierung der zufälligen Messfehler erlaubt. Für jeden Punkt, also jeden Knoten der Triangulierung, wird eine verbesserte Position aufgrund der Lage seiner benachbarten Punkte geschätzt. Die Differenz von der beobachteten zur ‚fehlerfreien‘ Position ist der Verbesserungsvektor. Glatte Flächenverbände über einer Triangulierung werden im Allgemeinen schrittweise erstellt. Zuerst wird für jede Kante der Triangulierung eine Kurve auf der Fläche bestimmt, die die beiden Kantenendpunkte verbindet. Die in einem Knoten der Triangulierung, also in einem der gegebenen Punkte, zusammentreffenden Kurven müssen zu einer gemeinsamen Tangentialebene an die Fläche passen. Die Tangenten in den Kurvenendpunkten müssen also in einer Ebene liegen. Jedes Dreieck der Triangulierung wird nun durch ein gekrümmtes dreieckiges Flächenstück (einen Patch) ersetzt, das die Randkurven zu den Dreieckskanten interpoliert. Damit erhält man eine stetige Fläche, was aber noch nicht ausreicht, da eine glatte Fläche rekonstruiert werden soll. Bei der Bestimmung der Patches muss daher eine Konstruktion angewandt werden, die sicherstellt, dass benachbarte Patches nicht nur die Randkurve teilen, sondern auch dasselbe Feld von Tangentialebenen entlang dieser Kurve haben. Eine solche Fläche wird als geometrisch stetig erster Ordnung bezeichnet (G1). Die entwickelte Methode basiert auf (bivariaten) polynomialen Patches vierten Grades, die als Beziér-Dreiecke beschrieben werden. Der Vorteil der Beschreibung auf Basis der Beziér- Bernstein-Polynome liegt darin, dass die Koeffizienten des Polynoms in dieser Form eine geometrische Bedeutung haben. Wie oben erwähnt, werden zuerst die zufälligen Messfehler eliminiert. In diesem Schritt kann auch die Tangentialebene an die Fläche im jeweiligen Punkt abgeschätzt werden. Alternativ dazu kann der Normalvektor beispielsweise auch durch Mittelung der Normalvektoren aller Dreiecke, die in einem Punkt zusammentreffen, festgelegt werden. Im nächsten Schritt werden die Randkurven der Patches bestimmt, die in diesem Fall (univariate) Polynome vom Grad drei sind. Die Tangenten in den Endpunkten müssen normal zu den vorher bestimmten Normalvektoren sein. Damit sind die Randkurven der Patches bestimmt, es müssen noch die ‚inneren Parameter‘ (also Koeffizienten des Polynoms) bestimmt werden, die sowohl die Form des Patches im Inneren, also auch die Tangentialebenen entlang der drei Randkurven beeinflussen. Im folgenden Schritt wird entlang dieser Randkurven ein Feld von Normalvektoren bestimmt, indem die beiden Endpunkt-Normalen ineinander überblendet werden. Zu jedem Randkurvenpunkt gibt es somit einen Normalvektor zur Fläche. Die inneren Parameter der Patches werden nun so bestimmt, dass die Tangentialebenen der Patches möglichst normal auf die abgeschätzten Normalvektoren sind, die Minimierung erfolgt im Kleinste-Quadrate-Sinn. Da im Allgemeinen keine exakte Interpolation dieser Normalvektorenfelder, sondern nur eine Approximation möglich ist, entsteht keine vollständig glatte, sondern nur eine approximativ glatte Fläche, man spricht auch von ‚Epsilon-Stetigkeit‘ (epsilon-G1). Wenn zwischen zwei benachbarten Patches die Winkel zwischen den aufeinander treffenden Tangentialebenen zu groß sind, müssen die Patches unterteilt werden um mehr Freiheitsgrade und somit einen besseren Übergang zu gewährleisten. (Es soll erwähnt werden, dass diese Methode teilweise in meiner Diplomarbeit entwickelt wurde, obschon sie dort nicht so sehr im Kontext der Geländemodellierung steht.) Die zweite Methode, die zum Erstellen von glatten 3D-Geländemodellen untersucht worden ist, arbeitet nach dem Subdivision-Prinzip. Die Triangulierung wird dabei schrittweise unterteilt, wobei mehr und mehr Punkte und Kanten eingefügt werden. Die Winkel zwischen benachbarten Dreiecken nähern sich dabei 180°, wodurch die Grenzfläche, die man theoretisch nach unendlich vielen Unterteilungsschritten erhält, glatt ist. Ein großer Vorteil dieses Verfahrens ist, dass unabhängig vom Unterteilungsniveau immer eine Triangulierung vorliegt. Für diese Datenstruktur sind viele Algorithmen, also z.B. Darstellung, Verschneidung u.s.w., sehr einfach. Je nach gestellter Aufgabe kann das den Genauigkeitsanforderungen entsprechende Niveau herangezogen werden. Auch bei der entwickelten Subdivision-Methode zur Rekonstuktion der Geländefläche müssen, wie oben erwähnt, die zufälligen Messfehler zuerst eliminiert werden. Im angewandten Unterteilungsschema wird in jeder Kante ein zusätzlicher Punkt eingefügt, der aber nicht der geometrische Kantenmittelpunkt sein muss. Ein Verfeinerungsschritt besteht im Einfügen von einem Punkt in jede Kante und der entsprechenden zusätzlichen Vermaschung der Triangulierung. Die Koordinaten der neu einzufügenden Punkte werden wie folgt bestimmt: in beiden Kantenendpunkten wird eine lokale Fläche abgeschätzt. Diese approximiert den Kantenendpunkt und seine Nachbarpunkte. Für die beiden Flächen wird dann jeweils ein für den Kantenmittelpunkt repräsentativer Punkt auf den lokalen Flächen bestimmt. Das Mittel der beiden so erhaltenen Punkte ist die Position des neu einzufügenden Punktes. Auch die Kantenendpunkte erhalten neue Positionen, nämlich jene, die den jeweiligen Punkten auf der lokalen Fläche entsprechen. In den ursprünglich gegebenen Punkten werden keine rein approximierenden Flächen verwendet, sondern die dort verwendeten lokalen Flächen interpolieren den ursprünglich gegebenen Punkt und approximieren seine Nachbarn. Dadurch interpoliert die Grenzfläche die Punkte der gegebenen Triangulierung. Anhand von Vergleichen zwischen der Subdivision- und der Flächenverband-Methode wird untersucht, welches Verfahren den Anforderungen in der topographischen Geländemodellierung besser entspricht. Dazu werden sowohl tatsächliche Messungen am Gelände als auch synthetische Beispiele herangezogen. In den untersuchten Fällen sind mit den Unterteilungs- Flächen, also mit Subdivision, bessere Ergebnisse erzielt worden. Ein kurzer Ausblick auf die Anwendungen von Geländemodellen, die Überhänge, Höhlen, etc. enthalten, wird im letzten Kapitel gegeben. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universtität Wien als Heft 65, ISBN 3-9500791-7-3, veröffentlicht.
Globale Beobachtung von Bodenfeuchte mit dem ERS Scatterometer
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2002. 1. Begutachter: Univ. Prof. Dipl.-Ing. Dr. W. Wagner, Institut für Photogrammetrie und Fernerkundung, 2. Begutachter: Prof. Dr. C. Schmullius, Friedrich-Schiller-Universität Jena, Institut für Geographie, Abteilung Fernerkundung.
Kurzfassung/Abstract
Bodenfeuchte ist eine wesentliche Komponente des globalen Ökosystems und übt einen wichtigen Einfluss auf die Wechselwirkungen zwischen der Hydrosphäre der Biosphäre und der Atmosphäre aus. Aufgrund der Bedeutung von Bodenfeuchte für alle bio- und geophysikalischen Prozesse, ist genaue Information über die Variabilität dieser geophysikalischen Größe für viele Bereiche wichtig. Im Gegensatz zu einer Vielzahl von geophysikalischen Größen wie Temperatur, Niederschlag oder Wind, die in hoher Präzision und Dichte gemessen werden, wird Bodenfeuchte nur von wenigen Meßsysteme adäquat gemessen. Das Fehlen geeigneter Daten und Meßsysteme wird von allen betroffenen Wissenschaften als großes Defizit gesehen. Der Entwicklung von neuen innovativen Methoden kommt daher größte Bedeutung zu. Fernerkundung, im speziellen Radar Fernerkundung, wird generell als möglicher Lösungsansatz gesehen. Ziel dieser Arbeit war die globale Anwendung einer neuen innovativen Methode zur Beobachtung von Bodenfeuchte. Grundlage der Methode sind ERS Scatterometer Daten. Der ERS scatterometer ist ein C-band Radarsensor mit einer Auflösung von 50x50 km² der seit 1992 an Bord der Europäischen Fernerkundungssatelliten ERS-1 und ERS-2 die Erde beobachtet. Die Methode zur Analyse der Daten basiert auf einem empirischen Modell mit dem das grundlegende Streuverhalten der Erdoberfläche beschrieben wird und einem einfachen Change Detection Ansatz zur Ableitung der gesuchten Größen. Die Methode, die über ausgewählten Gebieten entwickelt wurde, konnte erfolgreich global angewendet werden. Charakteristische Auswirkungen der einzelnen Klimate auf das Rückstreuverhalten wurden nachgewiesen. Die zur Beschreibung der Rückstreueigenschaften abgeleiteten Parameter zeigen eine klare Korrelation mit charakteristischen Klima und Vegetationszonen. Basierend auf einer detaillierten Analyse der Rückstreueigenschaften, konnten problematische Konzepte in der Formulierung des zugrundeliegenden physikalische Modells aufgezeigt werden. Aufgrund dieser Studien ist eine Verbesserung der Methoden möglich. Die Validierung der abgeleiteten Bodenfeuchte ergab eine hohe Genauigkeit, der mittlere Fehler liegt im Bereich 5-7 vol%. Die Daten eignen sich daher für eine Reihe von hydrosphärischen biosphärischen und atmosphärischen Anwendungen.
Bodenfeuchte ist eine wesentliche Komponente des globalen Ökosystems und übt einen wichtigen Einfluss auf die Wechselwirkungen zwischen der Hydrosphäre der Biosphäre und der Atmosphäre aus. Aufgrund der Bedeutung von Bodenfeuchte für alle bio- und geophysikalischen Prozesse, ist genaue Information über die Variabilität dieser geophysikalischen Größe für viele Bereiche wichtig. Im Gegensatz zu einer Vielzahl von geophysikalischen Größen wie Temperatur, Niederschlag oder Wind, die in hoher Präzision und Dichte gemessen werden, wird Bodenfeuchte nur von wenigen Meßsysteme adäquat gemessen. Das Fehlen geeigneter Daten und Meßsysteme wird von allen betroffenen Wissenschaften als großes Defizit gesehen. Der Entwicklung von neuen innovativen Methoden kommt daher größte Bedeutung zu. Fernerkundung, im speziellen Radar Fernerkundung, wird generell als möglicher Lösungsansatz gesehen. Ziel dieser Arbeit war die globale Anwendung einer neuen innovativen Methode zur Beobachtung von Bodenfeuchte. Grundlage der Methode sind ERS Scatterometer Daten. Der ERS scatterometer ist ein C-band Radarsensor mit einer Auflösung von 50x50 km² der seit 1992 an Bord der Europäischen Fernerkundungssatelliten ERS-1 und ERS-2 die Erde beobachtet. Die Methode zur Analyse der Daten basiert auf einem empirischen Modell mit dem das grundlegende Streuverhalten der Erdoberfläche beschrieben wird und einem einfachen Change Detection Ansatz zur Ableitung der gesuchten Größen. Die Methode, die über ausgewählten Gebieten entwickelt wurde, konnte erfolgreich global angewendet werden. Charakteristische Auswirkungen der einzelnen Klimate auf das Rückstreuverhalten wurden nachgewiesen. Die zur Beschreibung der Rückstreueigenschaften abgeleiteten Parameter zeigen eine klare Korrelation mit charakteristischen Klima und Vegetationszonen. Basierend auf einer detaillierten Analyse der Rückstreueigenschaften, konnten problematische Konzepte in der Formulierung des zugrundeliegenden physikalische Modells aufgezeigt werden. Aufgrund dieser Studien ist eine Verbesserung der Methoden möglich. Die Validierung der abgeleiteten Bodenfeuchte ergab eine hohe Genauigkeit, der mittlere Fehler liegt im Bereich 5-7 vol%. Die Daten eignen sich daher für eine Reihe von hydrosphärischen biosphärischen und atmosphärischen Anwendungen.
Gradiometer Simulator of GOCE satellite mission implemented in MATLAB
Institut für Geodäsie, Abteilung für Theoretische Geodäsie, Technische Universität Graz, 2002. Begutachter und Betreuer: Ao.Univ. Prof.. Mag. Dr. R. Pail.
Kurzfassung/Abstract
Die Satellitenschwerefeld-Mission GOCE (Gravity Field and Steady-State Ocean Circulation Explorer), der ESA (European Space Agency) mit geplantem Starttermin 2006, ist der hochgenauen globalen Modellierung des Erdschwerefeldes mittels Satellitengradiometrie gewidmet. Während dieser Mission werden Gravitationsgradienten U mit einer Genauigkeit im mE-Bereich gemessen, woraus das Gravitationsfeld der Erde bestimmt wird: eine Geoid-Genauigkeit von 1[cm] bzw. ein Schwereanomalienfehler von weniger als 1[mGal] bei einer räumlichen Auflösung von 100[km] sollen erreicht werden. Ein Gradiometer, bestehend aus sechs Accelerometern - zwei pro Achse - bildet dabei das Hauptelement des Satelliten. Mittels dem - im Zuge dieser Diplomarbeit - generierten „Gradiometer Simulator“ in MATLAB werden die Einflüsse der wichtigsten Fehlerquellen (mispointing, cross coupling, scale factor, quadratic factor) des Gradiometers abgeschätzt und deren Verlauf sowohl im Ortsbereich als auch Spektralbereich graphisch dargestellt.
Die Satellitenschwerefeld-Mission GOCE (Gravity Field and Steady-State Ocean Circulation Explorer), der ESA (European Space Agency) mit geplantem Starttermin 2006, ist der hochgenauen globalen Modellierung des Erdschwerefeldes mittels Satellitengradiometrie gewidmet. Während dieser Mission werden Gravitationsgradienten U mit einer Genauigkeit im mE-Bereich gemessen, woraus das Gravitationsfeld der Erde bestimmt wird: eine Geoid-Genauigkeit von 1[cm] bzw. ein Schwereanomalienfehler von weniger als 1[mGal] bei einer räumlichen Auflösung von 100[km] sollen erreicht werden. Ein Gradiometer, bestehend aus sechs Accelerometern - zwei pro Achse - bildet dabei das Hauptelement des Satelliten. Mittels dem - im Zuge dieser Diplomarbeit - generierten „Gradiometer Simulator“ in MATLAB werden die Einflüsse der wichtigsten Fehlerquellen (mispointing, cross coupling, scale factor, quadratic factor) des Gradiometers abgeschätzt und deren Verlauf sowohl im Ortsbereich als auch Spektralbereich graphisch dargestellt.
Analyse des Referenzstationsnetzes von Wienstrom auf Basis bereits entwickelter lokaler GNSS-Referenzstationsnetze
Institut für Geodäsie und Geophysik, Abteilung für Angewandte Geodäsie und Ingenieurgeodäsie, Technische Universität Wien, 2002. Begutachter: O.Univ. Prof. Dr.-Ing. H. Kahmen, Betreuer: Ass.Prof. Dipl.-Ing. Dr. G. Retscher.
Kurzfassung/Abstract
Durch die ständige Weiterentwicklung der hochgenauen relativen GPS-Positionierung im cm-Bereich zu einem noch rationelleren und wirtschaftlicheren Messverfahren werden immer mehr lokale, permanent arbeitende Referenzstationsnetze aufgebaut. Zur Zeit befindet sich in Wien ein neues Referenzstationsnetz, namens WEP, für das Versorgungsgebiet der Firma Wienstrom im Aufbau. Der Systemaufbau mit den zu erreichenden Genauigkeiten, die Datenübertragung, die Vorteile der Realisierung des Konzeptes sowie eine Kosten-Nutzen Analyse werden in dieser Arbeit behandelt und untersucht. Die detaillierte Analyse des Konzepts dieses neuen Netzes basiert auf bereits bestehenden lokalen Referenznetzen bzw. DGPS-Diensten in Deutschland sowie auf den regionalen Referenzstationsnetzen in Österreich SATVB und KELSAT. Als Musterbeispiel für ein landesweites Referenzstationsnetz wird der Satellitenpositionierungsdienst der deutschen Landesvermessung (SAPOS) angesehen. Ein vergleichbarer landesweiter Dienst in Österreich, der DARC-DGPS Dienst, ist seit 2001 nicht mehr verfügbar. Nach kurzer Erklärung der mathematischen Zusammenhänge und der wesentlichen Fehlereinflüsse bei der relativen Positionierung zu Beginn dieser Arbeit, werden die verschiedenen Konzepte und die Vernetzung von lokalen Referenzstationsnetzen beschrieben. Auf das Konzept der virtuellen Referenzstation wird näher eingegangen. Im praktischen Teil dieser Arbeit wird die Satellitenverfügbarkeit im Gebiet des zukünftigen Referenzstationsnetzes in Wien anhand dreier repräsentativer Gebiete untersucht, wobei zuerst die Verfügbarkeit von GPS-Satellitensignalen und anschließend die Verfügbarkeit von GPS+GLONASS-Satellitensignalen analysiert wird. Sowohl die ausführliche Planung als auch die anschließende Testmessung der geplanten Messpunkte werden detailliert beschrieben. Diese Untersuchung soll Aufschluss über die Einsetzbarkeit von Satellitensystemen zur Vermessung im Referenzstationsnetz von Wienstrom geben.
Durch die ständige Weiterentwicklung der hochgenauen relativen GPS-Positionierung im cm-Bereich zu einem noch rationelleren und wirtschaftlicheren Messverfahren werden immer mehr lokale, permanent arbeitende Referenzstationsnetze aufgebaut. Zur Zeit befindet sich in Wien ein neues Referenzstationsnetz, namens WEP, für das Versorgungsgebiet der Firma Wienstrom im Aufbau. Der Systemaufbau mit den zu erreichenden Genauigkeiten, die Datenübertragung, die Vorteile der Realisierung des Konzeptes sowie eine Kosten-Nutzen Analyse werden in dieser Arbeit behandelt und untersucht. Die detaillierte Analyse des Konzepts dieses neuen Netzes basiert auf bereits bestehenden lokalen Referenznetzen bzw. DGPS-Diensten in Deutschland sowie auf den regionalen Referenzstationsnetzen in Österreich SATVB und KELSAT. Als Musterbeispiel für ein landesweites Referenzstationsnetz wird der Satellitenpositionierungsdienst der deutschen Landesvermessung (SAPOS) angesehen. Ein vergleichbarer landesweiter Dienst in Österreich, der DARC-DGPS Dienst, ist seit 2001 nicht mehr verfügbar. Nach kurzer Erklärung der mathematischen Zusammenhänge und der wesentlichen Fehlereinflüsse bei der relativen Positionierung zu Beginn dieser Arbeit, werden die verschiedenen Konzepte und die Vernetzung von lokalen Referenzstationsnetzen beschrieben. Auf das Konzept der virtuellen Referenzstation wird näher eingegangen. Im praktischen Teil dieser Arbeit wird die Satellitenverfügbarkeit im Gebiet des zukünftigen Referenzstationsnetzes in Wien anhand dreier repräsentativer Gebiete untersucht, wobei zuerst die Verfügbarkeit von GPS-Satellitensignalen und anschließend die Verfügbarkeit von GPS+GLONASS-Satellitensignalen analysiert wird. Sowohl die ausführliche Planung als auch die anschließende Testmessung der geplanten Messpunkte werden detailliert beschrieben. Diese Untersuchung soll Aufschluss über die Einsetzbarkeit von Satellitensystemen zur Vermessung im Referenzstationsnetz von Wienstrom geben.
Höhenverlust des GOCE Satelliten aufgrund von Luftwiderstand nach der zweiten operationellen Phase
Institut für Theoretische Geodäsie, Abteilung Mathematische Geodäsie und Geoinformatik, TU Graz, 2002. Betreuer: Univ.-Prof. Dr. H. Sünkel.
Kurzfassung/Abstract
Bei der Bestimmung des Gravitationsfeldes der Erde mit Satellitenmissionen (z.B. GOCE) tritt (neben anderen) ein Problem auf: die räumliche Auflösung des Gravitationsfeldes. In dieser Arbeit wird eine Möglichkeit zur Verbesserung der Auflösung des Gravitationsfeldes – Senken der Flughöhe – bearbeitet. Das Hauptproblem eines niedrigen Satellitenorbits ist der größer werdende Luftwiderstand durch die Restatmosphäre. Um den Luftwiderstand zu simulieren, wurde das Drag Temperature Model 94 (DTM 94) in die vorhandene Software zur Orbit Integration SATAN (SATellite ANalysis) implementiert. Während der Source Code von SATAN in FORTRAN 77 geschrieben ist, wurde das DTM 94 in FORTRAN 90 programmiert. Mit diesem Modul kann jede Flughöhe bis minimal 120 km (unteres Limit von DTM 94) simuliert werden.
Bei der Bestimmung des Gravitationsfeldes der Erde mit Satellitenmissionen (z.B. GOCE) tritt (neben anderen) ein Problem auf: die räumliche Auflösung des Gravitationsfeldes. In dieser Arbeit wird eine Möglichkeit zur Verbesserung der Auflösung des Gravitationsfeldes – Senken der Flughöhe – bearbeitet. Das Hauptproblem eines niedrigen Satellitenorbits ist der größer werdende Luftwiderstand durch die Restatmosphäre. Um den Luftwiderstand zu simulieren, wurde das Drag Temperature Model 94 (DTM 94) in die vorhandene Software zur Orbit Integration SATAN (SATellite ANalysis) implementiert. Während der Source Code von SATAN in FORTRAN 77 geschrieben ist, wurde das DTM 94 in FORTRAN 90 programmiert. Mit diesem Modul kann jede Flughöhe bis minimal 120 km (unteres Limit von DTM 94) simuliert werden.
Binnengewässervermessung
Institut für Geodäsie, Abteilung für Positionierung und Navigation, Technische Universität Graz, 2002. Begutachter und Betreuer: Univ. Prof. Dipl.-Ing. Dr. B. Hofmann-Wellenhof.
Kurzfassung/Abstract
Die vorliegende Arbeit soll verschiedene Konzepte der Binnengewässervermessung einander gegenüberstellen, wobei vor allem auch in Österreich anwendbare Verfahren für die Positionierung verwendet werden sollen. Die eigentliche Aufgabe besteht in der möglichst guten Erfassung der Gewässersohle. Dies geschieht zur Zeit meist durch Messfahrten entlang von vordefinierten Profillinien. In dieser Arbeit sollen aber auch alternative Messanordnungen betrachtet werden. Als gegenwärtiger Entwicklungsstand sind für die Positionierung polare Systeme hoher Automation und GPS-Systeme, speziell DGPS-Systeme basierend auf differentiellen Codephasenmessungen im Einsatz. Besonders in den Uferbereichen kann es aber aufgrund von topographisch bedingten Abschattungen der GPS-Satelliten notwendig werden, dass alternative Verfahren eingesetzt werden müssen. Für die Tiefenmessung werden meist Echolote und Echographen verwendet. Allerdings schränken hier die physikalischen Bedingungen die erreichbare Genauigkeit ein. Ein Problem stellt die Verknüpfung von Positionierung und Lotung dar, speziell wenn für die Lotung Echographen verwendet werden. Ein weiteres großes Thema ist die Elimination der Schiffsbewegungen. Ein Teil der in dieser Arbeit vorgestellten Verfahren wurden bei Testmessungen auf der Mur im Bereich von Mixnitz auf ihre „Tauglichkeit“ getestet. Zu diesem Zweck wurde ein Prototyp eines Messbootes aufgebaut, das über mehrere Messeinrichtungen verfügt. Zusätzlich werden noch drei weitere Projekte kurz vorgestellt.
Die vorliegende Arbeit soll verschiedene Konzepte der Binnengewässervermessung einander gegenüberstellen, wobei vor allem auch in Österreich anwendbare Verfahren für die Positionierung verwendet werden sollen. Die eigentliche Aufgabe besteht in der möglichst guten Erfassung der Gewässersohle. Dies geschieht zur Zeit meist durch Messfahrten entlang von vordefinierten Profillinien. In dieser Arbeit sollen aber auch alternative Messanordnungen betrachtet werden. Als gegenwärtiger Entwicklungsstand sind für die Positionierung polare Systeme hoher Automation und GPS-Systeme, speziell DGPS-Systeme basierend auf differentiellen Codephasenmessungen im Einsatz. Besonders in den Uferbereichen kann es aber aufgrund von topographisch bedingten Abschattungen der GPS-Satelliten notwendig werden, dass alternative Verfahren eingesetzt werden müssen. Für die Tiefenmessung werden meist Echolote und Echographen verwendet. Allerdings schränken hier die physikalischen Bedingungen die erreichbare Genauigkeit ein. Ein Problem stellt die Verknüpfung von Positionierung und Lotung dar, speziell wenn für die Lotung Echographen verwendet werden. Ein weiteres großes Thema ist die Elimination der Schiffsbewegungen. Ein Teil der in dieser Arbeit vorgestellten Verfahren wurden bei Testmessungen auf der Mur im Bereich von Mixnitz auf ihre „Tauglichkeit“ getestet. Zu diesem Zweck wurde ein Prototyp eines Messbootes aufgebaut, das über mehrere Messeinrichtungen verfügt. Zusätzlich werden noch drei weitere Projekte kurz vorgestellt.
Entwicklung einer webbasierenden Metadatenbank für das Stadtvermessungsamt Graz
Institut für Geodäsie, Abteilung für Geoinformation, Technische Universität Graz, 2002. Begutachter und Betreuer: Ao.Univ. Prof. Dr. N. Bartelme.
Kurzfassung/Abstract
Die Anwendung von raumbezogenen Daten in der Stadtplanung nimmt stetig zu. So werden durch das Stadtvermessungsamt Graz unterschiedlichste Geodaten erstellt und verwaltet. Aufgrund der Position muss das Amt mit vielen Stellen zusammenarbeiten und diesen Geodaten liefern. Angesichts dieser Tatsache wird der Geodatenbestand in Zukunft weiter zunehmen und somit immer unübersichtlicher werden. Um die Datenorganisation in den Griff zu bekommen, sollen Metadaten (in diesem Fall Daten über Geodaten) erstellt werden und den Nutzern als Auskunft über vorhandene Geodatenbestände offen stehen. Aus diesem Grund wurde die Diplomarbeit zur Entwicklung einer webbasierenden Metadatenbank vergeben. Ziel der Arbeit war es, ein Metadatenmodell zu erstellen und dieses in einer Datenbank umzusetzen, welche über Internet bzw. Intranet abgefragt werden kann. Der Inhalt sollte standardisierten Qualitätsmerkmalen genügen, welche durch das Stadtvermessungsamt Graz unter Anwendung der Norm ISO 19115 definiert wurden. Für die Implementierung der Metadatenbank wurde eine gängige Kombination von Open Source-Projekten gewählt. Unter anderem wurden hierfür die Internetdatenbank „MySQL“ für die Datenspeicherung und der MapServer für die Selektion eines Gebietes eingesetzt. Die Verbindung zwischen Server und Datenbank wird mittels der Skriptsprache PHP hergestellt. Die erstellte Benutzeroberfläche gliedert sich in vier Ebenen: Internet-, Intranet-, Betreuer- und Administratoroberfläche. Eine Trennung zwischen Internet- und Intranetoberfläche ist auf die Beschränkung des freien Zugriffs auf Geodaten zurückzuführen. Im Allgemeinen wurde bei der Entwicklung der Web-Anwendung darauf geachtet, dem Anwender das Suchen, die Eingabe und die Verwaltung von Geodaten zu erleichtern. Für diesen Zweck wurde z.B. der UMN-MapServer den Bedürfnissen der Metadatenbank angepasst. Das Ergebnis der Diplomarbeit stellt kein Endprodukt einer Metadatenbank dar, vielmehr wurde ein erster Schritt in Richtung Geodatenorganisation vorgenommen. Die gewählte Software ist an zukünftige Entwicklungen und Anforderungen relativ leicht anzupassen und stellt somit ein leistungsfähiges bzw. kostengünstiges Werkzeug dar.
Die Anwendung von raumbezogenen Daten in der Stadtplanung nimmt stetig zu. So werden durch das Stadtvermessungsamt Graz unterschiedlichste Geodaten erstellt und verwaltet. Aufgrund der Position muss das Amt mit vielen Stellen zusammenarbeiten und diesen Geodaten liefern. Angesichts dieser Tatsache wird der Geodatenbestand in Zukunft weiter zunehmen und somit immer unübersichtlicher werden. Um die Datenorganisation in den Griff zu bekommen, sollen Metadaten (in diesem Fall Daten über Geodaten) erstellt werden und den Nutzern als Auskunft über vorhandene Geodatenbestände offen stehen. Aus diesem Grund wurde die Diplomarbeit zur Entwicklung einer webbasierenden Metadatenbank vergeben. Ziel der Arbeit war es, ein Metadatenmodell zu erstellen und dieses in einer Datenbank umzusetzen, welche über Internet bzw. Intranet abgefragt werden kann. Der Inhalt sollte standardisierten Qualitätsmerkmalen genügen, welche durch das Stadtvermessungsamt Graz unter Anwendung der Norm ISO 19115 definiert wurden. Für die Implementierung der Metadatenbank wurde eine gängige Kombination von Open Source-Projekten gewählt. Unter anderem wurden hierfür die Internetdatenbank „MySQL“ für die Datenspeicherung und der MapServer für die Selektion eines Gebietes eingesetzt. Die Verbindung zwischen Server und Datenbank wird mittels der Skriptsprache PHP hergestellt. Die erstellte Benutzeroberfläche gliedert sich in vier Ebenen: Internet-, Intranet-, Betreuer- und Administratoroberfläche. Eine Trennung zwischen Internet- und Intranetoberfläche ist auf die Beschränkung des freien Zugriffs auf Geodaten zurückzuführen. Im Allgemeinen wurde bei der Entwicklung der Web-Anwendung darauf geachtet, dem Anwender das Suchen, die Eingabe und die Verwaltung von Geodaten zu erleichtern. Für diesen Zweck wurde z.B. der UMN-MapServer den Bedürfnissen der Metadatenbank angepasst. Das Ergebnis der Diplomarbeit stellt kein Endprodukt einer Metadatenbank dar, vielmehr wurde ein erster Schritt in Richtung Geodatenorganisation vorgenommen. Die gewählte Software ist an zukünftige Entwicklungen und Anforderungen relativ leicht anzupassen und stellt somit ein leistungsfähiges bzw. kostengünstiges Werkzeug dar.
Machbarkeitsstudie zur Datenkonvertierung des 3.0 Flächenwidmungsplanes der Landeshauptstadt Graz
Abteilung für Mathematische Geodäsie und Geoinformatik, Institut für Theoretische Geodäsie, TU Graz, 2002. Betreuer: Univ.-Prof. Dr. N. Bartelme.
Kurzfassung/Abstract
Das Land Steiermark fördert die Erstellung digitaler Flächenwidmungspläne unter der Bedingung, dass die Daten in genormter Form auch dem GIS-Steiermark (ARC/INFO), der zentralen Datensammel- und Verwaltungsstelle des Landes Steiermark, zur Verfügung gestellt werden. Das Stadtvermessungsamt von Graz verwendet als GIS SICAD/open. Da weder SICAD/open noch ARC/INFO über eine zufriedenstellend funktionierende Konvertierungsschnittstelle verfügen, sind die Flächenwidmungsdaten mit einem Programm der Firma GISCON vom SICAD/open-Exportformat SQD in das ARC/INFO-Format E00 zu konvertieren. Die vorliegende Diplomarbeit beschäftigt sich mit der Konvertierung der Daten des Grazer Flächenwidmungsplanes vom SQD-Format in das ARC/INFO-Format. Dabei lässt sich die Arbeit in vier Bereiche gliedern: Der erste Bereich gibt Basisinformationen über Geografische Informationssysteme, Topologiekonzepte und Datenbanksysteme wieder. Im zweiten Abschnitt werden die Systeme SICAD/open der Stadt Graz und ARC/INFO des Landes Steiermark hinsichtlich technischer Struktur und inhaltlichem Aufbau der Flächenwidmungsplandaten analysiert. Der dritte Bereich der Diplomarbeit zeigt eine Gegenüberstellung und Möglichkeiten der Datenüberführung zwischen den beiden Systemen. Im letzten Abschnitt werden schließlich ausgewählte Themen und Bereiche des Flächenwidmungsplanes der Stadt Graz testweise konvertiert, die auftretenden Fehler dokumentiert und Prozeduren zur Fehlerbehebung/-vermeidung vorgestellt.
Das Land Steiermark fördert die Erstellung digitaler Flächenwidmungspläne unter der Bedingung, dass die Daten in genormter Form auch dem GIS-Steiermark (ARC/INFO), der zentralen Datensammel- und Verwaltungsstelle des Landes Steiermark, zur Verfügung gestellt werden. Das Stadtvermessungsamt von Graz verwendet als GIS SICAD/open. Da weder SICAD/open noch ARC/INFO über eine zufriedenstellend funktionierende Konvertierungsschnittstelle verfügen, sind die Flächenwidmungsdaten mit einem Programm der Firma GISCON vom SICAD/open-Exportformat SQD in das ARC/INFO-Format E00 zu konvertieren. Die vorliegende Diplomarbeit beschäftigt sich mit der Konvertierung der Daten des Grazer Flächenwidmungsplanes vom SQD-Format in das ARC/INFO-Format. Dabei lässt sich die Arbeit in vier Bereiche gliedern: Der erste Bereich gibt Basisinformationen über Geografische Informationssysteme, Topologiekonzepte und Datenbanksysteme wieder. Im zweiten Abschnitt werden die Systeme SICAD/open der Stadt Graz und ARC/INFO des Landes Steiermark hinsichtlich technischer Struktur und inhaltlichem Aufbau der Flächenwidmungsplandaten analysiert. Der dritte Bereich der Diplomarbeit zeigt eine Gegenüberstellung und Möglichkeiten der Datenüberführung zwischen den beiden Systemen. Im letzten Abschnitt werden schließlich ausgewählte Themen und Bereiche des Flächenwidmungsplanes der Stadt Graz testweise konvertiert, die auftretenden Fehler dokumentiert und Prozeduren zur Fehlerbehebung/-vermeidung vorgestellt.
Monitoring der Flutkatastrophe von Moçambique im Jahr 2000 auf Basis von SPOT-VÉGÉTATION-Satellitenbilddaten
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2002. Begutachter: Univ.Prof. Dr. E. Csaplovics (Technische Universität Dresden), Betreuer: Univ.Prof. Dr. W. Wagner.
Kurzfassung/Abstract
Jedes Jahr zerstören Naturkatastrophen große Teile der Umwelt, menschlichen Lebensraum und bedrohen im schlimmsten aller Fälle menschliches Leben. So auch im Jahre 2000, als Moçambique von der bisher schlimmsten Flutkatastrophe betroffen war und bis zu 800 Menschen starben. Die Untersuchung des SPOT-VÉGÉTATION-Systems am Beispiel der großen Flut in Moçambique des Jahres 2000 war Gegenstand der vorliegenden Arbeit. Als zentrale Frage stand im Vordergrund, ob diese Daten eine effiziente Grundlage für die multitemporale Analyse von großräumigen Flutkatastrophen sein können, und somit in Krisensituationen potentiellem Datenmangel entgegenzuwirken. Datengrundlage waren tägliche Aufnahmen (S1-Produkte), jedoch schlechte Witterungsverhältnisse bedingten den Ausschluss vieler Datensätze. Experimentell wurden die Daten auf Basis verschiedener Arbeitsschritte überprüft, worunter als wichtigster und arbeitsintensivster eine Signaturanalyse fiel. Des Weiteren wurden die Daten mit Hilfe klassischer Bildverarbeitungsverfahren ausgewertet, wie z.B. einer Hauptkomponentenanalyse und verschiedener Klassifikationsansätze. Ein erstes Ergebnis der Studie war die positive Einschätzung des kurzwelligen Infrarotkanals SWIR hinsichtlich seiner Einsetzbarkeit bei Flutbeobachtungen. Seine Fähigkeit Wasser zu detektieren und damit als Unterstützung bei der Interpretation der anderen Kanäle herangezogen zu werden, machte ihn für die Analyse unentbehrlich. Als optimaler Klassifikationsansatz für die Auswertung der SPOT-VÉGÉTATION-Daten erwies sich die Maximum Likelihood-Klassifikation, auf deren Basis auch die Validierung vorgenommen wurde. Die Validierung der durch die Analyse erhaltenen Resultate mit den verschiedenen Referenzdaten ergab ebenfalls ein annehmbares Ergebnis. Zusammenfassend muss jedoch auf die Nachteile optischer Aufnahmesysteme, wie es SPOT-VÉGÉTATION eines ist, hingewiesen werden. Die Anzahl interpretierbarer Bilder dezimiert sich bei schlechten Witterungsverhältnisse. Diese Einschränkung erschwert vor allen Dingen die Anfertigung von Simultananalysen während Überschwemmungen, da diese meist auf schlechte Wetterverhältnisse zurückführbar sind. Daher sollte in Zukunft nicht auf die Kombination verschiedener Datenquellen verzichtet werden. Die Vorteile von optischen (sofortige visuelle Interpretierbarkeit) und Radardaten (keine Wetterabhängigkeit) sollten zur bestmöglichen Unterstützung von Krisensituationen kombiniert werden.
Jedes Jahr zerstören Naturkatastrophen große Teile der Umwelt, menschlichen Lebensraum und bedrohen im schlimmsten aller Fälle menschliches Leben. So auch im Jahre 2000, als Moçambique von der bisher schlimmsten Flutkatastrophe betroffen war und bis zu 800 Menschen starben. Die Untersuchung des SPOT-VÉGÉTATION-Systems am Beispiel der großen Flut in Moçambique des Jahres 2000 war Gegenstand der vorliegenden Arbeit. Als zentrale Frage stand im Vordergrund, ob diese Daten eine effiziente Grundlage für die multitemporale Analyse von großräumigen Flutkatastrophen sein können, und somit in Krisensituationen potentiellem Datenmangel entgegenzuwirken. Datengrundlage waren tägliche Aufnahmen (S1-Produkte), jedoch schlechte Witterungsverhältnisse bedingten den Ausschluss vieler Datensätze. Experimentell wurden die Daten auf Basis verschiedener Arbeitsschritte überprüft, worunter als wichtigster und arbeitsintensivster eine Signaturanalyse fiel. Des Weiteren wurden die Daten mit Hilfe klassischer Bildverarbeitungsverfahren ausgewertet, wie z.B. einer Hauptkomponentenanalyse und verschiedener Klassifikationsansätze. Ein erstes Ergebnis der Studie war die positive Einschätzung des kurzwelligen Infrarotkanals SWIR hinsichtlich seiner Einsetzbarkeit bei Flutbeobachtungen. Seine Fähigkeit Wasser zu detektieren und damit als Unterstützung bei der Interpretation der anderen Kanäle herangezogen zu werden, machte ihn für die Analyse unentbehrlich. Als optimaler Klassifikationsansatz für die Auswertung der SPOT-VÉGÉTATION-Daten erwies sich die Maximum Likelihood-Klassifikation, auf deren Basis auch die Validierung vorgenommen wurde. Die Validierung der durch die Analyse erhaltenen Resultate mit den verschiedenen Referenzdaten ergab ebenfalls ein annehmbares Ergebnis. Zusammenfassend muss jedoch auf die Nachteile optischer Aufnahmesysteme, wie es SPOT-VÉGÉTATION eines ist, hingewiesen werden. Die Anzahl interpretierbarer Bilder dezimiert sich bei schlechten Witterungsverhältnisse. Diese Einschränkung erschwert vor allen Dingen die Anfertigung von Simultananalysen während Überschwemmungen, da diese meist auf schlechte Wetterverhältnisse zurückführbar sind. Daher sollte in Zukunft nicht auf die Kombination verschiedener Datenquellen verzichtet werden. Die Vorteile von optischen (sofortige visuelle Interpretierbarkeit) und Radardaten (keine Wetterabhängigkeit) sollten zur bestmöglichen Unterstützung von Krisensituationen kombiniert werden.
Bestimmung von Ionosphärenparametern durch die VLBI
Institut für Geodäsie und Geophysik, Abteilung Höhere Geodäsie, Technische Universität Wien, 2002. Begutachter: Univ.Prof. Dr. H. Schuh, Betreuer: Dipl.-Ing. J. Böhm
Kurzfassung/Abstract
Die Ionosphäre ist der rund 70km-1000km über der Erdoberfläche gelegene Teil der Erdatmosphäre. Geladene Partikel führen in diesem Bereich bei allen im Radiobereich operierenden geodätischen Weltraumverfahren zu Laufzeitverzögerungen bei der Signalausbreitung. Bei GPS werden seit Jahren die Zweifrequenzmessungen herangezogen, um auf den Gesamtelektronengehalt entlang des Strahlenweges (total electron content – TEC) zu schließen und diesen in geophysikalische Modelle zu integrieren. Bei dem Verfahren der Radiointerferometrie auf langen Basislinien (Very Long Baseline Interferometry – VLBI) wird ebenfalls in zwei Frequenzbereichen beobachtet um den störenden Einfluß der Ionosphäre in den Griff zu bekommen. Es wurde jedoch stets nur die Korrektur an die Laufzeit angebracht aber nicht der Umkehrschluß gezogen und damit eine regionale Bestimmung des Gesamtelektronengehalts der Ionosphäre durchgeführt. Bei VLBI bezieht sich die ionosphärische Information jeweils auf eine Basislinie und nicht auf eine Station (wie bei GPS). Damit ist es nicht möglich absolute TEC-Werte aus VLBI-Daten abzuleiten. Kennt man jedoch über einer Station im VLBI-Netz den Gesamtelektronengehalt während der Meßreihe, so lassen sich an allen anderen Stationen TEC-Werte bestimmen. Im Rahmen dieser Diplomarbeit wurden jene theoretischen Grundlagen geschaffen, die eine prinzipielle Verwendung von ionosphärischer Information zum Zwecke geophysikalischer Modellierung ermöglichen. Unter zu Hilfenahme externer Daten (GPS) und internationaler Modelle (Parameterized Ionospheric Model) wurden jeweils regionale Modelle des Gesamtelektronengehalts über bestimmten Gebieten berechnet. Weiters erfolgte eine Darstellung der Resultate in der Form sogenannter ionosphärischer Karten, die einen Vergleich mit anderen Verfahren zulassen. Es stellt sich heraus, daß die aus VLBI bestimmten TEC Werte sehr gut mit den Ergebnissen anderer Verfahren übereinstimmen. Größere Abweichungen treten nur in Regionen auf, in denen keinen VLBI Antenne vorhanden ist, oder wenn die Aufzeichnung der VLBI-Daten korrumpiert wurde.
Die Ionosphäre ist der rund 70km-1000km über der Erdoberfläche gelegene Teil der Erdatmosphäre. Geladene Partikel führen in diesem Bereich bei allen im Radiobereich operierenden geodätischen Weltraumverfahren zu Laufzeitverzögerungen bei der Signalausbreitung. Bei GPS werden seit Jahren die Zweifrequenzmessungen herangezogen, um auf den Gesamtelektronengehalt entlang des Strahlenweges (total electron content – TEC) zu schließen und diesen in geophysikalische Modelle zu integrieren. Bei dem Verfahren der Radiointerferometrie auf langen Basislinien (Very Long Baseline Interferometry – VLBI) wird ebenfalls in zwei Frequenzbereichen beobachtet um den störenden Einfluß der Ionosphäre in den Griff zu bekommen. Es wurde jedoch stets nur die Korrektur an die Laufzeit angebracht aber nicht der Umkehrschluß gezogen und damit eine regionale Bestimmung des Gesamtelektronengehalts der Ionosphäre durchgeführt. Bei VLBI bezieht sich die ionosphärische Information jeweils auf eine Basislinie und nicht auf eine Station (wie bei GPS). Damit ist es nicht möglich absolute TEC-Werte aus VLBI-Daten abzuleiten. Kennt man jedoch über einer Station im VLBI-Netz den Gesamtelektronengehalt während der Meßreihe, so lassen sich an allen anderen Stationen TEC-Werte bestimmen. Im Rahmen dieser Diplomarbeit wurden jene theoretischen Grundlagen geschaffen, die eine prinzipielle Verwendung von ionosphärischer Information zum Zwecke geophysikalischer Modellierung ermöglichen. Unter zu Hilfenahme externer Daten (GPS) und internationaler Modelle (Parameterized Ionospheric Model) wurden jeweils regionale Modelle des Gesamtelektronengehalts über bestimmten Gebieten berechnet. Weiters erfolgte eine Darstellung der Resultate in der Form sogenannter ionosphärischer Karten, die einen Vergleich mit anderen Verfahren zulassen. Es stellt sich heraus, daß die aus VLBI bestimmten TEC Werte sehr gut mit den Ergebnissen anderer Verfahren übereinstimmen. Größere Abweichungen treten nur in Regionen auf, in denen keinen VLBI Antenne vorhanden ist, oder wenn die Aufzeichnung der VLBI-Daten korrumpiert wurde.
Abbildung geodätischer Messgrößen in die Gauß-Krüger-Ebene auf der Basis hybrider Schwerefeldinformation
Institut für Geodäsie und Geophysik, Abteilung Höhere Geodäsie, Technische Universität Wien, 2002. Begutachter: Univ.Prof. Dr. H. Schuh, Betreuer: Dr. R. Weber.
Kurzfassung/Abstract
Ziel dieser Arbeit war die Erstellung eines Softwarepakets zur Reduktion von in der Natur gemessenen Strecken, Vertikal- und Horizontalrichtungen in die Gauß-Krüger-Ebene auf der Basis der für Österreich frei vorfügbaren Schwerefeldinformation und der bekannten Gauß-Krüger Abbildungsgleichungen. Die Reduktion der Messdaten erfolgt vorerst auf das Referenzellipsoid und im nächsten Schritt in die Abbildungsebene. Nicht berücksichtigt wurden Korrekturen bezüglich der Gerätekalibrierung, der Meteorologie oder eventueller Exzentrizitäten von Stand- oder Zielpunkt. Zur Ermittlung der notwendigen Reduktionsgrößen wurden anhand hybrider Informationen über das Schwerefeld der Erde (gemessene Lotabweichungen und Schwerewerte, globales Potenzialmodell, DHM) in den Punkten eines geodätischen Netzes die Oberflächenlotabweichung, die Geoidundulation und der Oberflächenschwerewert interpoliert. Anhand der Messdaten des Deformationsnetzes „Kample-Burgschrofen“ der TIWAG (Prutz, Tirol), für das unter anderem astrogeodätisch bestimmte Lotabweichungen vorlagen, wurde die Zuverlässigkeit der Ergebnisse des entwickelten Softwarepakets untersucht. Die vorab durchgeführten Reduktionsschritte eliminieren offensichtlich weitgehend vom Schwerefeld verursachte systematische Einflüsse auf die Messgrößen und führen zu einem deutlich (30%) kleineren Gewichtseinheitsfehler der Netzausgleichung.
Ziel dieser Arbeit war die Erstellung eines Softwarepakets zur Reduktion von in der Natur gemessenen Strecken, Vertikal- und Horizontalrichtungen in die Gauß-Krüger-Ebene auf der Basis der für Österreich frei vorfügbaren Schwerefeldinformation und der bekannten Gauß-Krüger Abbildungsgleichungen. Die Reduktion der Messdaten erfolgt vorerst auf das Referenzellipsoid und im nächsten Schritt in die Abbildungsebene. Nicht berücksichtigt wurden Korrekturen bezüglich der Gerätekalibrierung, der Meteorologie oder eventueller Exzentrizitäten von Stand- oder Zielpunkt. Zur Ermittlung der notwendigen Reduktionsgrößen wurden anhand hybrider Informationen über das Schwerefeld der Erde (gemessene Lotabweichungen und Schwerewerte, globales Potenzialmodell, DHM) in den Punkten eines geodätischen Netzes die Oberflächenlotabweichung, die Geoidundulation und der Oberflächenschwerewert interpoliert. Anhand der Messdaten des Deformationsnetzes „Kample-Burgschrofen“ der TIWAG (Prutz, Tirol), für das unter anderem astrogeodätisch bestimmte Lotabweichungen vorlagen, wurde die Zuverlässigkeit der Ergebnisse des entwickelten Softwarepakets untersucht. Die vorab durchgeführten Reduktionsschritte eliminieren offensichtlich weitgehend vom Schwerefeld verursachte systematische Einflüsse auf die Messgrößen und führen zu einem deutlich (30%) kleineren Gewichtseinheitsfehler der Netzausgleichung.
Kinematische Aufnahme von Verkehrstrassen mit Mobile Mapping Systemen
Institut für Geodäsie und Geophysik, Abteilung für Angewandte Geodäsie und Ingenieurgeodäsie, Technische Universität Wien, 2002. Begutachter: O.Univ. Prof. Dr.-Ing. H. Kahmen, Betreuer: Ass.Prof. Dipl.-Ing. Dr. G. Retscher.
Kurzfassung/Abstract
Die Motivation bei der Entwicklung von Mobile Mapping Systemen (MMS) liegt in der Forderung nach genauer, wirtschaftlicher, schneller und halbautomatischen bis automatischen Erfassung von geographischen Daten. In dieser Arbeit werden die Funktionsweisen verschiedener Sensoren untersucht, die miteinander verknüpft, für die Positionsbestimmung eingesetzt werden. Dabei bildet die Kombination von satellitengestützter Navigation mit GPS (Global Positioning System) und inertialer Navigation mit INS (Inertial Navigation System) die zentrale Positionierungseinheit der meisten MMS, die durch weitere Sensoren unterstützt werden, um eine Genauigkeitssteigerung zu erzielen. Die zur Zeit existierenden, beziehungsweise in Entwicklung befindlichen MMS, werden hinsichtlich ihrer Sensorausstattung und erreichbaren Positionierungsgenauigkeit untereinander verglichen. Die gemeinsame Verarbeitung virtueller Messdaten wird anhand eines vom Verfasser entwickelten Programms, das auf dem Kalman-Filter basiert, der sich besonders gut für Online-Auswertungen eignet, erprobt und analysiert. Anhand simulierter Messwerte wurden die Einflüsse unterschiedlicher Parameter auf das Filterergebnis untersucht.
Die Motivation bei der Entwicklung von Mobile Mapping Systemen (MMS) liegt in der Forderung nach genauer, wirtschaftlicher, schneller und halbautomatischen bis automatischen Erfassung von geographischen Daten. In dieser Arbeit werden die Funktionsweisen verschiedener Sensoren untersucht, die miteinander verknüpft, für die Positionsbestimmung eingesetzt werden. Dabei bildet die Kombination von satellitengestützter Navigation mit GPS (Global Positioning System) und inertialer Navigation mit INS (Inertial Navigation System) die zentrale Positionierungseinheit der meisten MMS, die durch weitere Sensoren unterstützt werden, um eine Genauigkeitssteigerung zu erzielen. Die zur Zeit existierenden, beziehungsweise in Entwicklung befindlichen MMS, werden hinsichtlich ihrer Sensorausstattung und erreichbaren Positionierungsgenauigkeit untereinander verglichen. Die gemeinsame Verarbeitung virtueller Messdaten wird anhand eines vom Verfasser entwickelten Programms, das auf dem Kalman-Filter basiert, der sich besonders gut für Online-Auswertungen eignet, erprobt und analysiert. Anhand simulierter Messwerte wurden die Einflüsse unterschiedlicher Parameter auf das Filterergebnis untersucht.
Interaktive und dynamische Visualisierung von Deformationsgrößen
Institut für Geodäsie, Abteilung für Geoinformation, Technische Universität Graz, 2002. Begutachter und Betreuer: Ao.Univ. Prof. Dr. N. Bartelme.
Kurzfassung/Abstract
Im Rahmen des geodätischen Monitoring - der Überwachung von künstlichen und natürlichen Objekten mit Hilfe geodätischer und geotechnischer Sensoren – kommen zunehmend automatisierte Monitoring-Systeme zum Einsatz. Die Datenerfassung und die Berechnung kann durch diese Systeme viel effizienter erfolgen als durch einen menschlichen Experten. Dies führt dazu, dass in kurzen Zeitabschnitten große Mengen an Daten gewonnen werden. Obwohl sich aus einer großen Datenmenge eine Reihe an Vorteilen ergibt, wird es für den Menschen, der das Ergebnis bewerten und interpretieren muss, schwieriger, die in dieser umfangreichen Datenmenge verborgenen relevanten Informationen zu erkennen. Ein Geoinformationssystem könnte in diesem Zusammenhang als Schnittstelle zwischen dem automatisierten Monitoring-System auf der einen und dem Menschen auf der anderen Seite fungieren. Durch eine interaktive und dynamische Visualisierung soll das Erkennen raum-zeitlicher Beziehungen gefördert und die Interpretation der erfassten Daten für den menschlichen Experten erleichtert werden. Die Analyse herkömmlicher Darstellungsformen hinsichtlich ihrer Eignung zur Visualisierung relevanter Aspekte ist ebenso Teil dieser Arbeit wie die Untersuchung moderner Darstellungstechniken aus den Bereichen Visualisierung, Digitalkartographie und Computeranimation, die in diesem Rahmen für die Vermittlung der Information eingesetzt werden können.
Im Rahmen des geodätischen Monitoring - der Überwachung von künstlichen und natürlichen Objekten mit Hilfe geodätischer und geotechnischer Sensoren – kommen zunehmend automatisierte Monitoring-Systeme zum Einsatz. Die Datenerfassung und die Berechnung kann durch diese Systeme viel effizienter erfolgen als durch einen menschlichen Experten. Dies führt dazu, dass in kurzen Zeitabschnitten große Mengen an Daten gewonnen werden. Obwohl sich aus einer großen Datenmenge eine Reihe an Vorteilen ergibt, wird es für den Menschen, der das Ergebnis bewerten und interpretieren muss, schwieriger, die in dieser umfangreichen Datenmenge verborgenen relevanten Informationen zu erkennen. Ein Geoinformationssystem könnte in diesem Zusammenhang als Schnittstelle zwischen dem automatisierten Monitoring-System auf der einen und dem Menschen auf der anderen Seite fungieren. Durch eine interaktive und dynamische Visualisierung soll das Erkennen raum-zeitlicher Beziehungen gefördert und die Interpretation der erfassten Daten für den menschlichen Experten erleichtert werden. Die Analyse herkömmlicher Darstellungsformen hinsichtlich ihrer Eignung zur Visualisierung relevanter Aspekte ist ebenso Teil dieser Arbeit wie die Untersuchung moderner Darstellungstechniken aus den Bereichen Visualisierung, Digitalkartographie und Computeranimation, die in diesem Rahmen für die Vermittlung der Information eingesetzt werden können.
Moderne Programmentwicklung zur Lösung geodätischer Standardaufgaben
Institut für Geodäsie und Geophysik, Abteilung Höhere Geodäsie, Technische Universität Wien, 2002. Begutachter: Univ.Prof. Dr. H. Schuh, Betreuer: Dipl.Ing. H. Titz.
Kurzfassung/Abstract
In der vorliegenden Arbeit wurden geodätische Standardtransformationen in einer objektorientierten Sprache implementiert. Die Funktionstüchtigkeit der entstandenen Klassen wird im Rahmen einer Windowsanwendung demonstriert. Die Klassen behandeln die wichtigsten geodätischen Abbildungen, sowie die Geometrie auf dem Rotationsellipsoid. Im schriftlichen Teil wird eine kurze Einführung in die Objektorientierung gegeben, Elemente der zum Einsatz gekommenen Sprache Java werden vorgestellt. Der Hauptteil der schriftlichen Arbeit ist die Erklärung einiger im Rahmen der Programmierung entstandenen Klassen und deren Verwendung in einer Windowsanwendung.
In der vorliegenden Arbeit wurden geodätische Standardtransformationen in einer objektorientierten Sprache implementiert. Die Funktionstüchtigkeit der entstandenen Klassen wird im Rahmen einer Windowsanwendung demonstriert. Die Klassen behandeln die wichtigsten geodätischen Abbildungen, sowie die Geometrie auf dem Rotationsellipsoid. Im schriftlichen Teil wird eine kurze Einführung in die Objektorientierung gegeben, Elemente der zum Einsatz gekommenen Sprache Java werden vorgestellt. Der Hauptteil der schriftlichen Arbeit ist die Erklärung einiger im Rahmen der Programmierung entstandenen Klassen und deren Verwendung in einer Windowsanwendung.
Geophysikalische Untersuchungen zur Hydrologie des Mölltales im Bereich von Döllach
Institut für Geodäsie und Geophysik, Abteilung Geophysik, TU Wien, 2001. Betreuer: Univ.-Prof. Dr. E. Brückl, Mag. Ch. Ullrich.
Kurzfassung/Abstract
Aus dem Datenmaterial einer bereits vorhandenen seismischen sowie einer durchzuführenden gravimetrischen Messung sollte ein 3D Modell eines glazialen Tales erstellt werden. Zu diesem Zwecke wurden entsprechende Messungen im Bereich von Döllach im Mölltal (Kärnten) vorgenommen. Eine Standardauswertung der seismischen Messdaten ergab, dass sich das kompakte Gestein rund 70 bis 110 Meter unter der gegenwärtigen Taloberfläche befindet und durch Lockergestein überlagert ist. Aus den seismischen Geschwindigkeiten wurden für die verschiedenen Schichten die entsprechenden Dichten geschätzt. Mit Hilfe dieser Dichten wurde eine Modellierung der bereits korrigierten und reduzierten Schwerewerte auf Basis der seismischen Ergebnisse vorgenommen. Anhand von Profilschnitten wurde die Talform des Untergrundes unterhalb des Lockermaterials rekonstruiert. Mittels einer Vielzahl solcher Profilschnitte wurde ein 3D Modell des Tales hergestellt und zur Berechnung einer 3D Modellschwere herangezogen. Nach Abzug aller Korrekturen sowie des regionalen Trendfeldes konnte festgestellt werden, dass nur mehr örtliche Anomalien die in keiner Korrelation zur Mächtigkeit der Lockergesteinsüberlagerung stehen, übrig geblieben sind. Eine Fehlerabschätzung verschiedenster Einflüsse auf die Schwereanomalie beschließt die Arbeit.
Aus dem Datenmaterial einer bereits vorhandenen seismischen sowie einer durchzuführenden gravimetrischen Messung sollte ein 3D Modell eines glazialen Tales erstellt werden. Zu diesem Zwecke wurden entsprechende Messungen im Bereich von Döllach im Mölltal (Kärnten) vorgenommen. Eine Standardauswertung der seismischen Messdaten ergab, dass sich das kompakte Gestein rund 70 bis 110 Meter unter der gegenwärtigen Taloberfläche befindet und durch Lockergestein überlagert ist. Aus den seismischen Geschwindigkeiten wurden für die verschiedenen Schichten die entsprechenden Dichten geschätzt. Mit Hilfe dieser Dichten wurde eine Modellierung der bereits korrigierten und reduzierten Schwerewerte auf Basis der seismischen Ergebnisse vorgenommen. Anhand von Profilschnitten wurde die Talform des Untergrundes unterhalb des Lockermaterials rekonstruiert. Mittels einer Vielzahl solcher Profilschnitte wurde ein 3D Modell des Tales hergestellt und zur Berechnung einer 3D Modellschwere herangezogen. Nach Abzug aller Korrekturen sowie des regionalen Trendfeldes konnte festgestellt werden, dass nur mehr örtliche Anomalien die in keiner Korrelation zur Mächtigkeit der Lockergesteinsüberlagerung stehen, übrig geblieben sind. Eine Fehlerabschätzung verschiedenster Einflüsse auf die Schwereanomalie beschließt die Arbeit.
Anwendungen der semianalytischen Methode zur GOCE „Quicklook“-Schwerefeldbestimmung im Fall von Datenlücken und Non-Repeat-Orbits
Institut für Geodäsie, Abteilung für Theoretische Geodäsie, Technische Universität Graz, 2002. Begutachter und Betreuer: Ao.Univ. Prof.. Mag. Dr. R. Pail.
Kurzfassung/Abstract
Die Satellitenmission (Gravity Field and Steady-State Ocean Circulation Explorer), der ESA (European Space Agency) mit geplantem Starttermin im Jahr 2006, ist der hochgenauen globalen Modellierung des Erdschwerefeldes gewidmet. Die mathematischen Modelle zur Darstellung des Erdschwerefeldes basieren auf einer Reihenentwicklung in Kugelfunktionen. Die Berechnung der zugehörigen Kugelfunktionskoeffizienten führt zu sehr großen Gleichungssystemen. Eine sehr effiziente Methode, um solche Gleichungssysteme auszuwerten, ist der sogenannte semianalytische oder ''lumped coefficients''-Ansatz (lumped, engl. konzentriert, klumpig), wobei die Beobachtungen als kontinuierliche, ununterbrochene Zeitreihe entlang einer - sich schließenden - Satellitenbahn (Wiederholorbit) vorliegen müssen. In der vorliegenden Diplomarbeit werden die Auswirkungen der Verletzung obiger Bedingungen auf die Schätzung der Kugelfunktionskoeffizienten untersucht. Es wird gezeigt, in welchem Ausmaß sich die Qualität der modellierenden Koeffizienten durch unterbrochene Beobachtungsreihen verschlechtert und eine Iterationsstrategie vorgestellt, mit deren Hilfe dieser Effekt -in Abhängigkeit von der Charakteristik der Datenlücken- weitestgehend eliminiert wird. Weiters wird dargelegt, wie eine Berechnung des Schweremodells im Falle eines sich nicht schließenden Orbits, welcher sich aufgrund verschiedenster Fehlereinflüsse ergibt, möglich ist. Es werden verschiedene Methoden vorgestellt, mit denen der ''lumped coefficients''-Ansatz zur Erstellung von Quicklook-Lösungen, also schnellen Koeffizientenlösungen bei Vorliegen nur eines Bruchteils der Beobachtungsdaten unter Inkaufnahme gewisser Genauigkeitseinbußen, einsetzbar ist. Solche Auswertungen sind für eine begleitende Missionskontrolle von großer Wichtigkeit, um Rückschlüsse auf den Missionsverlauf tätigen zu können. Das Konvergenzverhalten des Lösungsalgorithmus wird analytisch beschrieben und ein empirisches Konvergenzkriterium angewendet, um die Laufzeiteffizienz bei gleichzeitiger Optimierung der Koeffizientenlösung zu gewährleisten.
Die Satellitenmission (Gravity Field and Steady-State Ocean Circulation Explorer), der ESA (European Space Agency) mit geplantem Starttermin im Jahr 2006, ist der hochgenauen globalen Modellierung des Erdschwerefeldes gewidmet. Die mathematischen Modelle zur Darstellung des Erdschwerefeldes basieren auf einer Reihenentwicklung in Kugelfunktionen. Die Berechnung der zugehörigen Kugelfunktionskoeffizienten führt zu sehr großen Gleichungssystemen. Eine sehr effiziente Methode, um solche Gleichungssysteme auszuwerten, ist der sogenannte semianalytische oder ''lumped coefficients''-Ansatz (lumped, engl. konzentriert, klumpig), wobei die Beobachtungen als kontinuierliche, ununterbrochene Zeitreihe entlang einer - sich schließenden - Satellitenbahn (Wiederholorbit) vorliegen müssen. In der vorliegenden Diplomarbeit werden die Auswirkungen der Verletzung obiger Bedingungen auf die Schätzung der Kugelfunktionskoeffizienten untersucht. Es wird gezeigt, in welchem Ausmaß sich die Qualität der modellierenden Koeffizienten durch unterbrochene Beobachtungsreihen verschlechtert und eine Iterationsstrategie vorgestellt, mit deren Hilfe dieser Effekt -in Abhängigkeit von der Charakteristik der Datenlücken- weitestgehend eliminiert wird. Weiters wird dargelegt, wie eine Berechnung des Schweremodells im Falle eines sich nicht schließenden Orbits, welcher sich aufgrund verschiedenster Fehlereinflüsse ergibt, möglich ist. Es werden verschiedene Methoden vorgestellt, mit denen der ''lumped coefficients''-Ansatz zur Erstellung von Quicklook-Lösungen, also schnellen Koeffizientenlösungen bei Vorliegen nur eines Bruchteils der Beobachtungsdaten unter Inkaufnahme gewisser Genauigkeitseinbußen, einsetzbar ist. Solche Auswertungen sind für eine begleitende Missionskontrolle von großer Wichtigkeit, um Rückschlüsse auf den Missionsverlauf tätigen zu können. Das Konvergenzverhalten des Lösungsalgorithmus wird analytisch beschrieben und ein empirisches Konvergenzkriterium angewendet, um die Laufzeiteffizienz bei gleichzeitiger Optimierung der Koeffizientenlösung zu gewährleisten.
Entwicklung eines Messsystems zur Überwachung von Senkkästen während des Absenkvorganges
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2002. Begutachter und Betreuer: Univ.Prof. Dr. F.K. Brunner.
Kurzfassung/Abstract
Die Senkkastenbauweise ermöglicht eine besonders umweltverträgliche Herstellung von untertägigen Bauwerken. Sie beruht darauf, dass ein Hohlkörper mit geeignetem Querschnitt unter seinem Eigengewicht in den Boden eindringt. Schneiden an der Unterseite des Senkkastens helfen, die Grundbruchspannung des Bodens zu überwinden. Der Absenkvorgang kann durch Entfernen des Bodenaushubs im Senkkasteninneren und durch Absenkhilfen, wie Spülung mit Wasser oder Bentonit, gesteuert werden. Einen Schlüsselpunkt dieser Bauweise stellt die laufende Überwachung des Senkkastens in Lage und Neigung (6 Freiheitsgrade) während des Absenkens dar. Kleine Abweichungen von der Soll-Lage müssen sofort erkannt und korrigiert werden, da bei zunehmender Absenktiefe die Korrektur immer schwieriger wird. In dieser Diplomarbeit wurde ein Messsystem ausgearbeitet, das die vollautomatische Bestimmung der Lage und Neigung eines Senkkastens in Echtzeit erlaubt. Den Kern des Messsystems bilden eine Totalstation und ein Neigungssensor, die mit einem PC verbunden sind. Die Verknüpfung und Auswertung der Daten der unterschiedlichen Sensoren wurde in einem Kalman-Filter durchgeführt. Mit Hilfe eines Software-Prototyps und eines Modells wurde das Messsystem in einem abschließenden Experiment getestet. Die Auswertung der gewonnenen Daten deutet darauf hin, dass das Messsystem die erforderliche Präzision von 8 mm für die Höhe und besser als 25 mm für die Lage während der Absenkung erfüllen kann.
Die Senkkastenbauweise ermöglicht eine besonders umweltverträgliche Herstellung von untertägigen Bauwerken. Sie beruht darauf, dass ein Hohlkörper mit geeignetem Querschnitt unter seinem Eigengewicht in den Boden eindringt. Schneiden an der Unterseite des Senkkastens helfen, die Grundbruchspannung des Bodens zu überwinden. Der Absenkvorgang kann durch Entfernen des Bodenaushubs im Senkkasteninneren und durch Absenkhilfen, wie Spülung mit Wasser oder Bentonit, gesteuert werden. Einen Schlüsselpunkt dieser Bauweise stellt die laufende Überwachung des Senkkastens in Lage und Neigung (6 Freiheitsgrade) während des Absenkens dar. Kleine Abweichungen von der Soll-Lage müssen sofort erkannt und korrigiert werden, da bei zunehmender Absenktiefe die Korrektur immer schwieriger wird. In dieser Diplomarbeit wurde ein Messsystem ausgearbeitet, das die vollautomatische Bestimmung der Lage und Neigung eines Senkkastens in Echtzeit erlaubt. Den Kern des Messsystems bilden eine Totalstation und ein Neigungssensor, die mit einem PC verbunden sind. Die Verknüpfung und Auswertung der Daten der unterschiedlichen Sensoren wurde in einem Kalman-Filter durchgeführt. Mit Hilfe eines Software-Prototyps und eines Modells wurde das Messsystem in einem abschließenden Experiment getestet. Die Auswertung der gewonnenen Daten deutet darauf hin, dass das Messsystem die erforderliche Präzision von 8 mm für die Höhe und besser als 25 mm für die Lage während der Absenkung erfüllen kann.
Georeferencing of GPS/INS-Supported Airborne Multispectral Scanner Data
Institut für Photogrammetrie und Fernerkundung, TU Wien, 2002. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuerin: Dipl.-Ing. Ch. Ries.
Kurzfassung/Abstract
Multispectral airborne scanning devices gain increasing importance for example in the field of environmental monitoring. In Vienna, since a couple of years, a detailed information system about the status and changes of urban greenery is established and continuously updated in the course of the work program "BiotopMonitoring Vienna" of the Austrian Health Institute (Österreichisches Bundesinstitut für Gesundheitswesen - ÖBIG) [Pillmann and Kellner, 2001]. These investigations are mainly based on aerial color infrared photographs, which were taken in different flight missions that were carried out by the German Aerospace Centre (Deutsches Zentrum für Luft- und Raumfahrt - DLR). In the flight mission Vienna 2000 realised on September 2000, a total of 24 multispectral airborne scanner images covering the whole area of Vienna were acquired. An integrated GPS/INS system was in use to provide direct observations for the outer orientation parameters of the scans. The geometric rectification or georeferencing of the 24 stripes is performed at the I.P.F. of the TU-Wien. During the geocoding procedure, it was seen that not all the obtained orthophotos were plenty satisfactory. Then, a detailed search of possible errors was required. In this sense, three stripes were selected to perform an analysis into more detail in the course of this diploma thesis. In the current project, strategies are tested with success in order to detect and minimise those errors.
Multispectral airborne scanning devices gain increasing importance for example in the field of environmental monitoring. In Vienna, since a couple of years, a detailed information system about the status and changes of urban greenery is established and continuously updated in the course of the work program "BiotopMonitoring Vienna" of the Austrian Health Institute (Österreichisches Bundesinstitut für Gesundheitswesen - ÖBIG) [Pillmann and Kellner, 2001]. These investigations are mainly based on aerial color infrared photographs, which were taken in different flight missions that were carried out by the German Aerospace Centre (Deutsches Zentrum für Luft- und Raumfahrt - DLR). In the flight mission Vienna 2000 realised on September 2000, a total of 24 multispectral airborne scanner images covering the whole area of Vienna were acquired. An integrated GPS/INS system was in use to provide direct observations for the outer orientation parameters of the scans. The geometric rectification or georeferencing of the 24 stripes is performed at the I.P.F. of the TU-Wien. During the geocoding procedure, it was seen that not all the obtained orthophotos were plenty satisfactory. Then, a detailed search of possible errors was required. In this sense, three stripes were selected to perform an analysis into more detail in the course of this diploma thesis. In the current project, strategies are tested with success in order to detect and minimise those errors.
Vorerkundung eines geotechnischen Projekts mit den Methoden der Seismik und der Gravimetrie
Institut für Geodäsie und Geophysik, Abteilung Geophysik, TU Wien, 2001. Betreuer: Univ.-Prof. Dr. E. Brückl, Mag. Ch. Ullrich.
Kurzfassung/Abstract
Im Rahmen dieser Diplomarbeit wurden die für ein geplantes Tunnelprojekt in Linz bereits gemessenen seismischen Daten übernommen und refraktions- bzw. reflexionsseismisch ausgewertet sowie interpretiert. Zusätzlich wurde an 340 Stationen flächendeckend eine relative Schweremessung durchgeführt. Die gemessenen Schwerewerte wurden entsprechend mit Korrekturen und Reduktionen versehen. Die Ergebnisse seismischer und gravimetrischer Messungen waren die Grundlage für die Bildung eines 3D-Untergrundmodells. Für die Erstellung eines Dichtemodells wurden aus den seismischen Geschwindigkeiten Dichten für die jeweiligen Schichten abgeschätzt. Die Berechnung des regionalen Trendanteils erfolgte nach der Erstellung eines geologischen Modells, das bereits die aus der Seismik ermittelten Horizonte sowie die abgeschätzten Dichten enthielt. Der verbleibende lokale Trendanteil ging in die 2D-Modellierung ein. Die Ergebnisse der 2D-Modellierung war wiederum die Grundlage für eine 3D-Modellierung und die Berechnung einer Modellschwere. Der Vergleich der berechneten Modellschwere und der auf den gemessenen Schwerewerten basierenden Bougueranomalie sowie die Diskussion der Ergebnisse in Hinblick auf das geotechnische Projekt (Tunnel) beschließt die Arbeit.
Im Rahmen dieser Diplomarbeit wurden die für ein geplantes Tunnelprojekt in Linz bereits gemessenen seismischen Daten übernommen und refraktions- bzw. reflexionsseismisch ausgewertet sowie interpretiert. Zusätzlich wurde an 340 Stationen flächendeckend eine relative Schweremessung durchgeführt. Die gemessenen Schwerewerte wurden entsprechend mit Korrekturen und Reduktionen versehen. Die Ergebnisse seismischer und gravimetrischer Messungen waren die Grundlage für die Bildung eines 3D-Untergrundmodells. Für die Erstellung eines Dichtemodells wurden aus den seismischen Geschwindigkeiten Dichten für die jeweiligen Schichten abgeschätzt. Die Berechnung des regionalen Trendanteils erfolgte nach der Erstellung eines geologischen Modells, das bereits die aus der Seismik ermittelten Horizonte sowie die abgeschätzten Dichten enthielt. Der verbleibende lokale Trendanteil ging in die 2D-Modellierung ein. Die Ergebnisse der 2D-Modellierung war wiederum die Grundlage für eine 3D-Modellierung und die Berechnung einer Modellschwere. Der Vergleich der berechneten Modellschwere und der auf den gemessenen Schwerewerten basierenden Bougueranomalie sowie die Diskussion der Ergebnisse in Hinblick auf das geotechnische Projekt (Tunnel) beschließt die Arbeit.
Früherkennung und Beobachtung von Hochwasser mittels ERS-Scatterometerdaten am Beispiel der Einzugsgebiete Limpopo und Sambesi im Zeitraum von 1992 bis 2000
Institut für Geographie, Lehrstuhl für Allgemeine Wirtschafts- und Sozialgeographie, Technische Universität Dresden, 2003. 1. Begutachter und Betreuer: Prof. Dr. habil. Winfried Killisch.
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2003. 2. Begutachter und Betreuer: Univ. Prof. Dipl.-Ing. Dr. W. Wagner.
Kurzfassung/Abstract
Im Mittelpunkt der Diplomarbeit stand die Frage nach der Einsatzfähigkeit der ERS-Scatterometerdaten zur Frühwarnung und Beobachtung von Hochwasserereignissen. Die Datengrundlage bildeten die Soil Water Index-Daten, die auf Basis der Daten vom ERS-Scatterometer berechnet wurden. Aufgrund der klimatischen Gegebenheiten besteht in der Region des südlichen Afrikas eine hohe Gefährdung durch Hochwasser und Dürrekatastrophen. Die schwersten Hochwasserkatastrophen im Betrachtungszeitraum ereigneten sich im Jahre 1996 am Flusslauf des Limpopo, im Jahre 1997 am Flusslauf des Sambesi und im Sommer 2000 an beiden Flussläufen. Die SWI-Zeitreihen wurden mit Hilfe verschiedener Methoden untersucht. Eine Methode beinhaltete den Vergleich der SWI-Daten mit Daten der Evapotranspiration, der Bodenfeuchte, des Niederschlags und des Abfluss, die vom Institut für Klimafolgenforschung bereitgestellt wurden. Die Analyse ergab eine hohe Korrelation zwischen dem SWI und der Evapotranspiration. Die weitere Analyse der Daten erfolgte mittels eines Vergleichs der SWI-Daten mit den Abfluss- bzw. Wasserstandsdaten der entsprechenden Flüsse. Im Einzugsgebiet des Sambesi konnte bei der Gegenüberstellung der SWI-Reihe mit den Abflussdaten ein zeitlicher Versatz zwischen den Maxima der beiden Untersuchungsgrößen festgestellt werden. Nach der Verschiebung der Größen zueinander, wurden hohe Korrelationen von bis zu R=0.95 bzw. R²= 0,9 ermittelt. An der Quelle umfasste die zeitliche Versetzung eine Zeitspanne von dreißig Tagen, weiter flussabwärts bereits sechzig Tage. Die Verfügbarkeit der Vergleichsdaten begrenzte sich auf den Oberlauf der beiden Flüsse, wodurch sich die Aussagefähigkeit der Resultate für den Unterlauf der Flüsse sehr einschränkt. Basierend auf den Ergebnissen der Studie wurde festgestellt, dass die SWI-Daten ein enormes Potential in sich bergen. Dies befürwortet den Einsatz dieser Daten in hydrologischen Modellen.
Im Mittelpunkt der Diplomarbeit stand die Frage nach der Einsatzfähigkeit der ERS-Scatterometerdaten zur Frühwarnung und Beobachtung von Hochwasserereignissen. Die Datengrundlage bildeten die Soil Water Index-Daten, die auf Basis der Daten vom ERS-Scatterometer berechnet wurden. Aufgrund der klimatischen Gegebenheiten besteht in der Region des südlichen Afrikas eine hohe Gefährdung durch Hochwasser und Dürrekatastrophen. Die schwersten Hochwasserkatastrophen im Betrachtungszeitraum ereigneten sich im Jahre 1996 am Flusslauf des Limpopo, im Jahre 1997 am Flusslauf des Sambesi und im Sommer 2000 an beiden Flussläufen. Die SWI-Zeitreihen wurden mit Hilfe verschiedener Methoden untersucht. Eine Methode beinhaltete den Vergleich der SWI-Daten mit Daten der Evapotranspiration, der Bodenfeuchte, des Niederschlags und des Abfluss, die vom Institut für Klimafolgenforschung bereitgestellt wurden. Die Analyse ergab eine hohe Korrelation zwischen dem SWI und der Evapotranspiration. Die weitere Analyse der Daten erfolgte mittels eines Vergleichs der SWI-Daten mit den Abfluss- bzw. Wasserstandsdaten der entsprechenden Flüsse. Im Einzugsgebiet des Sambesi konnte bei der Gegenüberstellung der SWI-Reihe mit den Abflussdaten ein zeitlicher Versatz zwischen den Maxima der beiden Untersuchungsgrößen festgestellt werden. Nach der Verschiebung der Größen zueinander, wurden hohe Korrelationen von bis zu R=0.95 bzw. R²= 0,9 ermittelt. An der Quelle umfasste die zeitliche Versetzung eine Zeitspanne von dreißig Tagen, weiter flussabwärts bereits sechzig Tage. Die Verfügbarkeit der Vergleichsdaten begrenzte sich auf den Oberlauf der beiden Flüsse, wodurch sich die Aussagefähigkeit der Resultate für den Unterlauf der Flüsse sehr einschränkt. Basierend auf den Ergebnissen der Studie wurde festgestellt, dass die SWI-Daten ein enormes Potential in sich bergen. Dies befürwortet den Einsatz dieser Daten in hydrologischen Modellen.
Konzept eines „WALK-THROUGH“ durch eine virtuelle Stadt
Institut für Geodäsie, Abteilung für Geoinformation, Technische Universität Graz, 2002. Begutachter und Betreuer: Univ.Prof. Dr. N. Bartelme.
Kurzfassung/Abstract
Der Standard für interaktive 3D-Visualisierung im Internet ist die Beschreibungs-sprache VRML. Geht man durch eine virtuelle Stadt, wird dieser Weg hauptsächlich durch die Lage von Gebäuden vorgezeichnet. Die Koordinaten dieser müssen geschützt werden. Diese Aufgabe ist in VRML nicht durchzuführen. Es bleibt daher nur die „Flucht“ in eine Interpretersprache (z.B. JavaScript) oder in eine Programmiersprache (z.B. Java). Auf dem Weg durch die Zwischenräume, die durch die virtuellen Gebäude gebildet werden, sind Bauwerke, welche sich in kurzer Entfernung relativ zum Betrachter befinden, detaillierter als solche, die weiter entfernt sind. Dieses Prinzip wird durch die Level Over Detail Technik unterstützt. Da ein realitätsnaher Eindruck entstehen soll, muss die Entfernung der LODs sehr groß gewählt werden. Dies hat den Nachteil, dass Gebäude, die sich in für den Avatar nicht sichtbaren Straßen befinden, auch dargestellt werden. Daher ist es nötig, die Gebäude zu Straßen zusammenzufassen. Die Straßen, die vom Avatar eingesehen werden können, können eingeschaltet und jene, die von diesem Punkt der virtuellen Stadt unmöglich sichtbar sind, ausgeschaltet werden. Dieser Aufbau der Gebäude zu LOD Objekten und die Organisation dieser zu Straßen, welche aktiviert bzw. deaktiviert werden können, ist das Hauptziel der Diplomarbeit. Diese Diplomarbeit ist in Zusammenarbeit mit dem Stadtvermessungsamt Graz (Projekt: Kulturhauptstadt Graz 2003) entstanden.
Der Standard für interaktive 3D-Visualisierung im Internet ist die Beschreibungs-sprache VRML. Geht man durch eine virtuelle Stadt, wird dieser Weg hauptsächlich durch die Lage von Gebäuden vorgezeichnet. Die Koordinaten dieser müssen geschützt werden. Diese Aufgabe ist in VRML nicht durchzuführen. Es bleibt daher nur die „Flucht“ in eine Interpretersprache (z.B. JavaScript) oder in eine Programmiersprache (z.B. Java). Auf dem Weg durch die Zwischenräume, die durch die virtuellen Gebäude gebildet werden, sind Bauwerke, welche sich in kurzer Entfernung relativ zum Betrachter befinden, detaillierter als solche, die weiter entfernt sind. Dieses Prinzip wird durch die Level Over Detail Technik unterstützt. Da ein realitätsnaher Eindruck entstehen soll, muss die Entfernung der LODs sehr groß gewählt werden. Dies hat den Nachteil, dass Gebäude, die sich in für den Avatar nicht sichtbaren Straßen befinden, auch dargestellt werden. Daher ist es nötig, die Gebäude zu Straßen zusammenzufassen. Die Straßen, die vom Avatar eingesehen werden können, können eingeschaltet und jene, die von diesem Punkt der virtuellen Stadt unmöglich sichtbar sind, ausgeschaltet werden. Dieser Aufbau der Gebäude zu LOD Objekten und die Organisation dieser zu Straßen, welche aktiviert bzw. deaktiviert werden können, ist das Hauptziel der Diplomarbeit. Diese Diplomarbeit ist in Zusammenarbeit mit dem Stadtvermessungsamt Graz (Projekt: Kulturhauptstadt Graz 2003) entstanden.
Airborne Laser Scanning – Automatische Extraktion von Gebäudekanten zur Erstellung von virtuellen Stadtmodellen
Institut für Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, Technische Universität Graz, 2002. Begutachter und Betreuer: Em.Univ. Prof. Dipl.-Ing. Dr. Gerhard Brandstätter.
Kurzfassung/Abstract
Das Ziel dieser Diplomarbeit ist die Entwicklung von Algorithmen zur automatischen Extraktion von Gebäudekanten aus First-Pulse Laserscannerdaten. Diese dienen in weiterer Folge als Grundlage für die Erstellung von homogenen 3D-Stadtmodellen. Hinter dieser Aufgabe verbirgt sich eine zweischichtige Problematik. Zum Einen ist dies der möglichst rasche Zugriff auf die Gesamtmenge der Rohdaten, um geeignete Kandidaten zu selektieren und zum Anderen das Auffinden der geometrisch gesicherten Kantenpunkte aus der Menge der Kandidaten. Dieser Zweiteilung folgt auch der Aufbau der Arbeit. Im ersten Teil wird die Entwicklung eines Algorithmus zur Organisation großer Datenmengen und die dabei auftretenden Probleme unter der verwendeten Softwareumgebung erläutert. Der zweite Teil befasst sich mit der Kantenextraktion selbst. Der dazu entwickelte Lösungsansatz folgt einem Top-Down Prinzip, indem zunächst eine Grobsuche in Rasterdaten vorgenommen wird und anschließend die Kante in den dazugehörigen Rohdaten genauer lokalisiert wird. Der so entstehende Grundriss des Gebäudes wird zuletzt aufgrund von Symmetrieüberlegungen in seiner Form korrigiert. Das Ergebnis dieser Arbeit ist eine Sammlung von Algorithmen, welche die notwendigen Berechnungen in der Entwicklungsumgebung MATLAB (C/C++) automatisiert abwickeln.
Das Ziel dieser Diplomarbeit ist die Entwicklung von Algorithmen zur automatischen Extraktion von Gebäudekanten aus First-Pulse Laserscannerdaten. Diese dienen in weiterer Folge als Grundlage für die Erstellung von homogenen 3D-Stadtmodellen. Hinter dieser Aufgabe verbirgt sich eine zweischichtige Problematik. Zum Einen ist dies der möglichst rasche Zugriff auf die Gesamtmenge der Rohdaten, um geeignete Kandidaten zu selektieren und zum Anderen das Auffinden der geometrisch gesicherten Kantenpunkte aus der Menge der Kandidaten. Dieser Zweiteilung folgt auch der Aufbau der Arbeit. Im ersten Teil wird die Entwicklung eines Algorithmus zur Organisation großer Datenmengen und die dabei auftretenden Probleme unter der verwendeten Softwareumgebung erläutert. Der zweite Teil befasst sich mit der Kantenextraktion selbst. Der dazu entwickelte Lösungsansatz folgt einem Top-Down Prinzip, indem zunächst eine Grobsuche in Rasterdaten vorgenommen wird und anschließend die Kante in den dazugehörigen Rohdaten genauer lokalisiert wird. Der so entstehende Grundriss des Gebäudes wird zuletzt aufgrund von Symmetrieüberlegungen in seiner Form korrigiert. Das Ergebnis dieser Arbeit ist eine Sammlung von Algorithmen, welche die notwendigen Berechnungen in der Entwicklungsumgebung MATLAB (C/C++) automatisiert abwickeln.
Untersuchung von Messsensoren zum Einsatz in Navigationssystemen für Fußgänger
Institut für Geodäsie und Geophysik, Abteilung für Angewandte Geodäsie und Ingenieurgeodäsie, Technische Universität Wien, 2002. Begutachter: O.Univ. Prof. Dr.-Ing. H. Kahmen, Betreuer: Ass.Prof. Dipl.-Ing. Dr. G. Retscher.
Kurzfassung/Abstract
Aktuelle Positionierungs- und Navigationssysteme wurden hauptsächlich für die Fahrzeugnavigation entwickelt. Durch die Entwicklung von neuen, immer kleineren, leichteren und auch genaueren Sensoren wird mittlerweile auch an der Entwicklung von Navigationssystemen für Fußgänger gearbeitet. In dieser Arbeit werden Sensoren untersucht, die die Position von Fußgängern bestimmen können. Das Ziel ist die Entwicklung eines Systemaufbaus für ein Navigationssystem für Fußgänger, das die möglichst genaue Schätzung der Position mit einfachen Sensoren ermöglicht. Dazu wurde vorerst eine Analyse bestehender Fußgängernavigationssysteme und Location Based Services durchgeführt, wobei im Speziellen auf die verschiedenen Sensoren zur Positionsbestimmung eingegangen wird. Die Sensoren werden klassifiziert, und für jeden einzelnen Bereich werden geeignete Sensoren ausgewählt. Die beschriebenen Sensoren sind u.a. GPS und Local Positioning Systeme, die Positionierung mit Mobilfunktelefonen und Barometer, sowie Beschleunigungssensoren, Kreisel und Kompasse, und daneben noch zwei Matching-Ansätze. Die Integration der Sensoren für eine gemeinsame Auswertung und Verarbeitung der Messdaten erfolgt mit Hilfe eines Kalmanfilters, da sich dieser Filteralgorithmus besonders gut für Echtzeit-Auswertungen eignet. Anhand simulierter Beobachtungen werden verschiedene Modelle des Zustandsvektors im Filter getestet und basierend auf diversen Trassenführungen werden Filterergebnisse von unterschiedlichen Sensorkombinationen veranschaulicht. Die Führung eines Fußgängers von der U-Bahn-Station Karlsplatz zum Institut für Geodäsie und Geophysik der TU Wien bildet den Abschluss der Simulationsrechnungen. Die Ergebnisse werden zeigen, dass bei Kombination der untersuchten Sensoren die Abweichungen von der Solltrasse sehr gering sind. Ausgehend davon kann ein Vorschlag für einen Prototyp aufgestellt werden, der die möglichen Komponenten für die Positionsbestimmung in einem Fußgängernavigationssystem enthält.
Aktuelle Positionierungs- und Navigationssysteme wurden hauptsächlich für die Fahrzeugnavigation entwickelt. Durch die Entwicklung von neuen, immer kleineren, leichteren und auch genaueren Sensoren wird mittlerweile auch an der Entwicklung von Navigationssystemen für Fußgänger gearbeitet. In dieser Arbeit werden Sensoren untersucht, die die Position von Fußgängern bestimmen können. Das Ziel ist die Entwicklung eines Systemaufbaus für ein Navigationssystem für Fußgänger, das die möglichst genaue Schätzung der Position mit einfachen Sensoren ermöglicht. Dazu wurde vorerst eine Analyse bestehender Fußgängernavigationssysteme und Location Based Services durchgeführt, wobei im Speziellen auf die verschiedenen Sensoren zur Positionsbestimmung eingegangen wird. Die Sensoren werden klassifiziert, und für jeden einzelnen Bereich werden geeignete Sensoren ausgewählt. Die beschriebenen Sensoren sind u.a. GPS und Local Positioning Systeme, die Positionierung mit Mobilfunktelefonen und Barometer, sowie Beschleunigungssensoren, Kreisel und Kompasse, und daneben noch zwei Matching-Ansätze. Die Integration der Sensoren für eine gemeinsame Auswertung und Verarbeitung der Messdaten erfolgt mit Hilfe eines Kalmanfilters, da sich dieser Filteralgorithmus besonders gut für Echtzeit-Auswertungen eignet. Anhand simulierter Beobachtungen werden verschiedene Modelle des Zustandsvektors im Filter getestet und basierend auf diversen Trassenführungen werden Filterergebnisse von unterschiedlichen Sensorkombinationen veranschaulicht. Die Führung eines Fußgängers von der U-Bahn-Station Karlsplatz zum Institut für Geodäsie und Geophysik der TU Wien bildet den Abschluss der Simulationsrechnungen. Die Ergebnisse werden zeigen, dass bei Kombination der untersuchten Sensoren die Abweichungen von der Solltrasse sehr gering sind. Ausgehend davon kann ein Vorschlag für einen Prototyp aufgestellt werden, der die möglichen Komponenten für die Positionsbestimmung in einem Fußgängernavigationssystem enthält.
Überprüfung der praktischen Tauglichkeit eines bildgebenden Laserscanners anhand geodätischer Richtlinien sowie dessen Anwendung bei Gletscherbeobachtungen
Institut für Geodäsie, Abteilung für Positionierung und Navigation, Technische Universität Graz, 2002. Begutachter und Betreuer: Univ. Prof. Dipl.-Ing. Dr. B. Hofmann-Wellenhof.
Kurzfassung/Abstract
Das Hauptziel der vorliegenden Arbeit ist die Untersuchung der Genauigkeit eines bildgebenden Laserscanners, welcher von der Firma Riegl Laser Measurement Systems (Österreich) entwickelt wurde. Mit diesem Gerät ist es möglich, Profile bzw. ganze Flächen bis zu einer Entfernung von 2500 m messtechnisch zu erfassen. Da ein derartiger Scanner als Totalstation eingesetzt wird, ist die Messgenauigkeit im Hinblick auf eine genaue Bestimmung der Orientierung von großer Bedeutung. Aus diesem Grund erfolgte eine Genauigkeitsanalyse nach geodätischen Richtlinien. Um Aussagen über die innere und äußere Genauigkeit der Messgrößen treffen zu können, wurden verschiedene Versuche durchgeführt. Die innere Genauigkeit wurde durch Wiederholungsmessungen (24 Stunden Dauermessungen) überprüft. Zur Bestimmung der absoluten Genauigkeit musste ein Referenznetz angelegt werden. Aus Messungen in diesem Netz konnten die Standardabweichungen der Distanz- und Winkelmessungen berechnet werden. Neben diesen Untersuchungen wurde auch ein möglicher Einfluss von Zielpunktsverdrehungen und unterschiedlichen Zielpunktsausführungen auf die Messgrößen erforscht. Weiters wurde geprüft, in wie weit es möglich ist, eine homogene Fläche aufzunehmen und darzustellen, da der Scanner im praktischen Betrieb speziell zur Aufnahme von Flächen gedacht ist. Im letzten Kapitel wird gezeigt, wie Veränderungen von Blockgletschern mit einem derartigen bildgebenden Laserscanner dokumentiert und visualisiert werden können.
Das Hauptziel der vorliegenden Arbeit ist die Untersuchung der Genauigkeit eines bildgebenden Laserscanners, welcher von der Firma Riegl Laser Measurement Systems (Österreich) entwickelt wurde. Mit diesem Gerät ist es möglich, Profile bzw. ganze Flächen bis zu einer Entfernung von 2500 m messtechnisch zu erfassen. Da ein derartiger Scanner als Totalstation eingesetzt wird, ist die Messgenauigkeit im Hinblick auf eine genaue Bestimmung der Orientierung von großer Bedeutung. Aus diesem Grund erfolgte eine Genauigkeitsanalyse nach geodätischen Richtlinien. Um Aussagen über die innere und äußere Genauigkeit der Messgrößen treffen zu können, wurden verschiedene Versuche durchgeführt. Die innere Genauigkeit wurde durch Wiederholungsmessungen (24 Stunden Dauermessungen) überprüft. Zur Bestimmung der absoluten Genauigkeit musste ein Referenznetz angelegt werden. Aus Messungen in diesem Netz konnten die Standardabweichungen der Distanz- und Winkelmessungen berechnet werden. Neben diesen Untersuchungen wurde auch ein möglicher Einfluss von Zielpunktsverdrehungen und unterschiedlichen Zielpunktsausführungen auf die Messgrößen erforscht. Weiters wurde geprüft, in wie weit es möglich ist, eine homogene Fläche aufzunehmen und darzustellen, da der Scanner im praktischen Betrieb speziell zur Aufnahme von Flächen gedacht ist. Im letzten Kapitel wird gezeigt, wie Veränderungen von Blockgletschern mit einem derartigen bildgebenden Laserscanner dokumentiert und visualisiert werden können.