- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 1999
Abschlussarbeiten 1999
Rough Location
Institut: Institut für Geoinformation, TU Wien, 1999. Begutachter: Prof. Dr. A. Frank, Prof. Dr. Thomas Eiter.
Kurzfassung/Abstract
Large effort is being spent in "the full integration of geospatial data and geoprocessing resources into mainstream computing and the widespread use of interoperable, commercial geoprocessing software through the global information infrastructure". Interoperability is "the ability for a system or components of a system to provide information portability and interapplication, cooperative process control". A clear understanding of the ontological and epistemological status of location is a basic precondition to achieve these goals. The understanding of the ontological status of location, i.e., what location is, is the basis for shareability of geospatial information. The understanding of the epistemological status of location, i.e., 'What do we know about the location of things ?', is the basis for representation of geospatial data. In this thesis, a unified view on ontological and epistemological aspects of location is provided. The ontological analysis results in distinctions between exact, part, and rough location. Based on these distinctions a formal analysis of location is provided. The epistemological analysis shows that for geospatial objects in physical reality only part and rough location can be known and represented. Spatial objects are located at regions of space. Exact location is a relation between an object and the region of space it occupies. Spatial objects and spatial regions have a compositional structure, i.e., are made up of parts. The ways in which parts of objects are located at parts of regions of space are captured by the notion of part location. There are multiple ways how parts of spatial objects can be located at parts of regions of space. In this thesis, multiple part location relations are identified and a classification of these relations is provided. Rough location refers to location of spatial objects with respect to sets of regions of space that form regional partitions. Rough location is characterized by sets of part location relations relating parts of objects to parts of partition regions. Rough location can be considered as an approximation of exact location in terms of part location in a regional partition. The formal analysis in this thesis discusses:
Formal models of exact, part, and rough location, based on Rough Sets and relationship mappings;
Relations between exact, part, and rough location;
Operations on rough location and their relations to operations on exact location, and<
Aspects and assumptions of the representability of location a computer.
The application of concepts of location to spatial information systems has another aspect. It involves human knowledge about spatial objects and their location in space. Aspects of epistemology need to be considered. One major aspect of the epistemological discussion in this thesis is that from empirical means, i.e., from observation and measurement, for almost all phenomena in geographic space all we can ever know is rough location in regional partitions. Regional partitions are created or selected by the observation and measurement processes. We do know that there exists one and only one region at which spatial objects are exactly located in each moment in time. In general, we do not know the identity of this region. We do know approximations of exact location in terms of rough location in regional partitions.
Geographic information systems, GIS, are supposed, to model geographic reality based on their internal representation. They represent human knowledge and data resulting from observation and measurement of geographic reality. Consequently, they need to be suitable to represent rough location. In practical GIS design it is often ignored that the exact location of most spatial object is unknown, or not finitely representable, or both. The analysis in this thesis shows that the representations used in most GIS are incomplete representations of rough location. Consequences are representation errors, inconsistencies, non-shareability of spatial data, and the non-interoperability of the different systems.
In order to overcome these problems in this thesis formal models for geographic objects that take
the ontological distinction between exact, part, and rough location, and
epistemological aspects of human knowledge about exact, part, and rough location into account.
An important aspect of modeling of geographic reality is to perform operations. The analysis in this thesis shows, that operations on rough location are different from operations on exact location. It is shown that pairs of rough operation approximate union and intersection operations on exact regions of spatial objects.
This thesis verifies the hypothesis that rough location is an important concept for representation and modeling of geographic objects on a computer. In order to support sound representation and reasoning as well as interoperability and data exchange the distinction between exact and rough location needs to be made explicit in the underlying representation.
Large effort is being spent in "the full integration of geospatial data and geoprocessing resources into mainstream computing and the widespread use of interoperable, commercial geoprocessing software through the global information infrastructure". Interoperability is "the ability for a system or components of a system to provide information portability and interapplication, cooperative process control". A clear understanding of the ontological and epistemological status of location is a basic precondition to achieve these goals. The understanding of the ontological status of location, i.e., what location is, is the basis for shareability of geospatial information. The understanding of the epistemological status of location, i.e., 'What do we know about the location of things ?', is the basis for representation of geospatial data. In this thesis, a unified view on ontological and epistemological aspects of location is provided. The ontological analysis results in distinctions between exact, part, and rough location. Based on these distinctions a formal analysis of location is provided. The epistemological analysis shows that for geospatial objects in physical reality only part and rough location can be known and represented. Spatial objects are located at regions of space. Exact location is a relation between an object and the region of space it occupies. Spatial objects and spatial regions have a compositional structure, i.e., are made up of parts. The ways in which parts of objects are located at parts of regions of space are captured by the notion of part location. There are multiple ways how parts of spatial objects can be located at parts of regions of space. In this thesis, multiple part location relations are identified and a classification of these relations is provided. Rough location refers to location of spatial objects with respect to sets of regions of space that form regional partitions. Rough location is characterized by sets of part location relations relating parts of objects to parts of partition regions. Rough location can be considered as an approximation of exact location in terms of part location in a regional partition. The formal analysis in this thesis discusses:
Die Kombination hochauflösender und multispektraler Satellitenbilder zur Erstellung eines Landnutzungslayers
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1999. Begutachter: Univ.Prof. Dr. J. Jansa, Betreuerin: Dr. A. Sindhuber.
Kurzfassung/Abstract
Ziel dieser Arbeit war die Erstellung eines Landnutzungslayers unter Einbeziehung hochauflösender und multispektraler Satellitenbilder. Da multispektrale Bilder eine hohe spektrale Auflösung jedoch eine geringe geometrische Auflösung besitzen, und hochauflösende, panchromatische Bilder eine geringe spektrale Auflösung aber eine geometrisch hohe Auflösung haben, wurde versucht, die verschiedensten Informationen zu nutzen, um einen optimalen Landnutzungslayer mit gesteigerten Genauigkeiten zu bekommen. Zuerst erfolgte eine Klassifizierung der verschiedenen multispektralen Bilddaten und eine Schwellwertanalyse der panchromatischen Bilder. Dann wurde ein Programm geschrieben, welches dem Anwender erlaubt, nur durch Eingabe von Fernerkundungsdaten und deren Ableitungen als Endprodukt einen Landnutzungslayer zu erhalten, der den immer höher werdenden Ganuigkeitsansprüchen genügt. Weiters wurden die verschiedensten Endprodukte mit einer visuellen Klassifizierung verglichen, um so die Ergebnisse einer Genauigkeitsprüfung zu unterziehen.
Ziel dieser Arbeit war die Erstellung eines Landnutzungslayers unter Einbeziehung hochauflösender und multispektraler Satellitenbilder. Da multispektrale Bilder eine hohe spektrale Auflösung jedoch eine geringe geometrische Auflösung besitzen, und hochauflösende, panchromatische Bilder eine geringe spektrale Auflösung aber eine geometrisch hohe Auflösung haben, wurde versucht, die verschiedensten Informationen zu nutzen, um einen optimalen Landnutzungslayer mit gesteigerten Genauigkeiten zu bekommen. Zuerst erfolgte eine Klassifizierung der verschiedenen multispektralen Bilddaten und eine Schwellwertanalyse der panchromatischen Bilder. Dann wurde ein Programm geschrieben, welches dem Anwender erlaubt, nur durch Eingabe von Fernerkundungsdaten und deren Ableitungen als Endprodukt einen Landnutzungslayer zu erhalten, der den immer höher werdenden Ganuigkeitsansprüchen genügt. Weiters wurden die verschiedensten Endprodukte mit einer visuellen Klassifizierung verglichen, um so die Ergebnisse einer Genauigkeitsprüfung zu unterziehen.
Die Kombination hochauflösender und multispektraler Satellitenbilder zur Erstellung eines Landnutzungslayers
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1999. Begutachter: Prof. Dr. J. Jansa, Betreuer: Dr. A. Sindhuber.
Kurzfassung/Abstract
Ziel dieser Arbeit war die Erstellung eines Landnutzungslayers, wie er etwa auch vom Bundesamt für Eich- und Vermessungswesen im Rahmen des Digitalen Landschaftsmodelles geplant ist, unter Einbeziehung hochauflösender und multispektraler Satellitenbilder. Da multispektrale Bilder zwar eine hohe spektrale Auflösung, jedoch eine geringe geometrische Auflösung besitzen, und panchromatische, d.h. spektral schlecht auflösende Bilder aber eine geometrisch hohe Auflösung haben, wurde versucht, die Vorteile beider Bildarten zu nutzen, um einen Landnutzungslayer mit guter geometrischer Genauigkeit und gleichzeitig hoher interpretatorischer Qualität zu erhalten. Die Wunschvorstellung ist die Beschreibung einer Vorgangsweise für die Bearbeitung der Bilder, sodaß ohne große Eingriffe des Benutzers das gewünschte Endprodukt erhalten werden kann. Dabei sollten vor allem Softwareprodukte verwendet werden, die zu der Standardausrüstung einer Firma oder Behörde gehören könnten. Es sind dies im konkreten Fall das Bildverarbeitungspaket ERDAS Imagine und das GIS ARCInfo. Die Interpretation erfolgt in zwei Phasen. Zuerst werden die multispektralen Bilddaten einer Maximum Likelihood Klassifizierung unterworfen, wodurch eine gute interpretatorische Qualität für alle jene Klassen erreicht wird, die ein spektral homogenes Erscheinungsbild aufweisen. Ein zweiter parallel dazu ablaufender Schritt beschäftigt sich mit der Analyse der panchromatischen Bilder. Durch Schwellwertanalyse und durch Merkmalsextraktion werden Zwischenergebnisse erhalten, die hohe geometrische Genauigkeiten, aber geringere Sicherheit der Interpretation aufweisen. Die Verknüfpung aller Ergebnisse erst ermöglicht über ein Regelsystem ein qualitativ zufriedenstellendes Endprodukt. Um die Qualität dieses so gewonnenen Landnutzungslayers zu prüfen, wurde eine visuelle Klassifizierung als Vergleichsbasis herangezogen. Die Arbeit enthält im Anhang ein ARCInfo AML, welches die halbautomatische Zusammenführung der Datensätze zum Landnutzungslayer ermöglicht.
Ziel dieser Arbeit war die Erstellung eines Landnutzungslayers, wie er etwa auch vom Bundesamt für Eich- und Vermessungswesen im Rahmen des Digitalen Landschaftsmodelles geplant ist, unter Einbeziehung hochauflösender und multispektraler Satellitenbilder. Da multispektrale Bilder zwar eine hohe spektrale Auflösung, jedoch eine geringe geometrische Auflösung besitzen, und panchromatische, d.h. spektral schlecht auflösende Bilder aber eine geometrisch hohe Auflösung haben, wurde versucht, die Vorteile beider Bildarten zu nutzen, um einen Landnutzungslayer mit guter geometrischer Genauigkeit und gleichzeitig hoher interpretatorischer Qualität zu erhalten. Die Wunschvorstellung ist die Beschreibung einer Vorgangsweise für die Bearbeitung der Bilder, sodaß ohne große Eingriffe des Benutzers das gewünschte Endprodukt erhalten werden kann. Dabei sollten vor allem Softwareprodukte verwendet werden, die zu der Standardausrüstung einer Firma oder Behörde gehören könnten. Es sind dies im konkreten Fall das Bildverarbeitungspaket ERDAS Imagine und das GIS ARCInfo. Die Interpretation erfolgt in zwei Phasen. Zuerst werden die multispektralen Bilddaten einer Maximum Likelihood Klassifizierung unterworfen, wodurch eine gute interpretatorische Qualität für alle jene Klassen erreicht wird, die ein spektral homogenes Erscheinungsbild aufweisen. Ein zweiter parallel dazu ablaufender Schritt beschäftigt sich mit der Analyse der panchromatischen Bilder. Durch Schwellwertanalyse und durch Merkmalsextraktion werden Zwischenergebnisse erhalten, die hohe geometrische Genauigkeiten, aber geringere Sicherheit der Interpretation aufweisen. Die Verknüfpung aller Ergebnisse erst ermöglicht über ein Regelsystem ein qualitativ zufriedenstellendes Endprodukt. Um die Qualität dieses so gewonnenen Landnutzungslayers zu prüfen, wurde eine visuelle Klassifizierung als Vergleichsbasis herangezogen. Die Arbeit enthält im Anhang ein ARCInfo AML, welches die halbautomatische Zusammenführung der Datensätze zum Landnutzungslayer ermöglicht.
Implementierung von INTERLIS als Datenbeschreibungssprache für ÖNORM A2261 Objekte
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU-Graz, 1999. Begutachter und Betreuer: Univ.Prof. Dr.phil. N. Bartelme.
Kurzfassung/Abstract
Mit der zunehmenden Bedeutung von Geoinformationssystemen steigt auch der Bedarf, deren Daten auszutauschen. Dieser Datentransfer zwischen verschiedenen Geoinformationssystemen ist heute durch die Verwendung von unterschiedlichsten Geodatenstrukturen, Konzepten im Aufbau der Systeme, aber auch Schnittstellen, keinesfalls vereinheitlicht und damit mit großem Aufwand verbunden. Der Wunsch nach Normung wird in Österreich vom Österreichischen Normungsinstitut und in der Schweiz von der Schweizerischen Normenvereinigung, wahrgenommen. Die unterschiedlichen Ansätze der beiden Länder gaben nun Anlaß dazu, die Prinzipien der Datenbeschreibungssprache INTERLIS (Schweiz) zusammenzufassen und mit der vom Österreichischen Normungsinstitut konzipierten Datenschnittstelle ÖNORM A2260 und dem Objektschlüsselkatalog ÖNORM A2261, zu vergleichen. In dieser Diplomarbeit werden die dabei gewonnenen Einsichten aufgezeigt. Weiters wird die Beschreibung von Objekten der ÖNORM A2261-2 (Naturbestand) mittels INTERLIS anhand eines konkreten Beispieles untersucht und das Ergebnis visuell dargestellt.
Mit der zunehmenden Bedeutung von Geoinformationssystemen steigt auch der Bedarf, deren Daten auszutauschen. Dieser Datentransfer zwischen verschiedenen Geoinformationssystemen ist heute durch die Verwendung von unterschiedlichsten Geodatenstrukturen, Konzepten im Aufbau der Systeme, aber auch Schnittstellen, keinesfalls vereinheitlicht und damit mit großem Aufwand verbunden. Der Wunsch nach Normung wird in Österreich vom Österreichischen Normungsinstitut und in der Schweiz von der Schweizerischen Normenvereinigung, wahrgenommen. Die unterschiedlichen Ansätze der beiden Länder gaben nun Anlaß dazu, die Prinzipien der Datenbeschreibungssprache INTERLIS (Schweiz) zusammenzufassen und mit der vom Österreichischen Normungsinstitut konzipierten Datenschnittstelle ÖNORM A2260 und dem Objektschlüsselkatalog ÖNORM A2261, zu vergleichen. In dieser Diplomarbeit werden die dabei gewonnenen Einsichten aufgezeigt. Weiters wird die Beschreibung von Objekten der ÖNORM A2261-2 (Naturbestand) mittels INTERLIS anhand eines konkreten Beispieles untersucht und das Ergebnis visuell dargestellt.
Genauigkeitsuntersuchungen der Wanddokumentation mit digitalen Bildern in Ephesos
Institut für Angewandte Geodäsie, Abteilung Photogrammetrie und Fernerkundung, TU-Graz, 1999. Begutachter und Betreuer: Univ.Prof. Dr. G. Brandstätter.
Kurzfassung/Abstract
Die Dokumentation von Wandoberflächen in den antiken Hanghäusern von Ephesos erfolgte bisher manuell durch Abzeichnen unter Zuhilfenahme eines Schnurrasters. Diese traditionelle Methode, bei der eine geometrische Qualitätskontrolle des Ergebnisses schwer fällt, wird durch eine neue Methode ergänzt, die auf digitalen Grundlagen basiert. Die Wandoberflächen werden mit einer digitalen Amateurkamera abschnittsweise fotografiert und für eine Mosaikbildung über vier Punkte projektiv entzerrt. Da die Wandoberflächen in der Regel Unebenheiten aufweisen und die projektive Entzerrung nur für ebene Gebilde exakt definiert ist, treten im Endprodukt geometrische Ungenauigkeiten auf. Dazu kommen noch die Abweichungen des Aufnahmesystems von der exakten Zentralprojektion und die Ungenauigkeiten der Paßpunktskoordinaten, die das Ergebnis zusätzlich beeinflussen. Ziel dieser Arbeit ist es, die erreichbare Genauigkeit zu zeigen, die mit dieser einfachen und kostengünstigen Methode möglich ist und eventuelle kompliziertere Methoden vorzuschlagen um die geforderte Genauigkeit zu erreichen.
Die Dokumentation von Wandoberflächen in den antiken Hanghäusern von Ephesos erfolgte bisher manuell durch Abzeichnen unter Zuhilfenahme eines Schnurrasters. Diese traditionelle Methode, bei der eine geometrische Qualitätskontrolle des Ergebnisses schwer fällt, wird durch eine neue Methode ergänzt, die auf digitalen Grundlagen basiert. Die Wandoberflächen werden mit einer digitalen Amateurkamera abschnittsweise fotografiert und für eine Mosaikbildung über vier Punkte projektiv entzerrt. Da die Wandoberflächen in der Regel Unebenheiten aufweisen und die projektive Entzerrung nur für ebene Gebilde exakt definiert ist, treten im Endprodukt geometrische Ungenauigkeiten auf. Dazu kommen noch die Abweichungen des Aufnahmesystems von der exakten Zentralprojektion und die Ungenauigkeiten der Paßpunktskoordinaten, die das Ergebnis zusätzlich beeinflussen. Ziel dieser Arbeit ist es, die erreichbare Genauigkeit zu zeigen, die mit dieser einfachen und kostengünstigen Methode möglich ist und eventuelle kompliziertere Methoden vorzuschlagen um die geforderte Genauigkeit zu erreichen.
Anpassung der ÖNORM A2261 an die europäischen Vornormen von CEN/TC 287 - eine Machbarkeitsstudie.
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU-Graz, 1999. Begutachter und Betreuer: Univ.Prof. Dr.phil. N. Bartelme.
Kurzfassung/Abstract
Die Normung im Bereich der Geoinformation hat Zukunft. Es ist deshalb notwendig diese sowohl international als auch national umzusetzen und auf einen gemeinsamen Stand zu bringen. Durch die ÖNORM A2261 "Objektschlüsselkatalog für den digitalen Austausch von Geo-Daten" ist ein Regelwerk entstanden, in dem eine Sammlung von Objekten beschrieben und einen Austausch von Geodaten firmenunabhängig ermöglicht wird. Die europäischen Normen beinhalten keine Objektschlüsselkataloge, liefern aber Regeln, um einen solchen zu erstellen. Diese Regeln wurden ausführlich in dieser Arbeit behandelt. Das Ziel dieser Arbeit war es eine Machbarkeitsstudie zu erstellen, die überprüft ob eine Darstellung des derzeitigen "anologen" Standes des Objektschlüsselkataloges mittels Schema möglich ist. Die CEN-Normen geben auch die Grundlagen zum Erstellen von Anwendungsschemata, die sich auf die Geometrie, Bezugssysteme, Qualität und Metadaten beziehen. Diese wurden auch in dieser Arbeit betrachtet. Nach einem kurzen Überblick über Normen wird im speziellen auf Anwendungsschemata und die Beschreibung von Daten mittels Datenbeschreibungssprachen eingegangen und anschließend die ÖNORM A2261 anhand von zwei Beispielen umgesetzt.
Die Normung im Bereich der Geoinformation hat Zukunft. Es ist deshalb notwendig diese sowohl international als auch national umzusetzen und auf einen gemeinsamen Stand zu bringen. Durch die ÖNORM A2261 "Objektschlüsselkatalog für den digitalen Austausch von Geo-Daten" ist ein Regelwerk entstanden, in dem eine Sammlung von Objekten beschrieben und einen Austausch von Geodaten firmenunabhängig ermöglicht wird. Die europäischen Normen beinhalten keine Objektschlüsselkataloge, liefern aber Regeln, um einen solchen zu erstellen. Diese Regeln wurden ausführlich in dieser Arbeit behandelt. Das Ziel dieser Arbeit war es eine Machbarkeitsstudie zu erstellen, die überprüft ob eine Darstellung des derzeitigen "anologen" Standes des Objektschlüsselkataloges mittels Schema möglich ist. Die CEN-Normen geben auch die Grundlagen zum Erstellen von Anwendungsschemata, die sich auf die Geometrie, Bezugssysteme, Qualität und Metadaten beziehen. Diese wurden auch in dieser Arbeit betrachtet. Nach einem kurzen Überblick über Normen wird im speziellen auf Anwendungsschemata und die Beschreibung von Daten mittels Datenbeschreibungssprachen eingegangen und anschließend die ÖNORM A2261 anhand von zwei Beispielen umgesetzt.
Anwendung der Adaptive Image Fusion zur SAR - Datenaufbereitung für landwirtschaftliche Applikationen
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1999. Begutachter: Univ.Prof. Dr. J. Jansa, Betreuer: Dr. K. Steinnocher.
Kurzfassung/Abstract
Eine auf Fernerkundungsdaten basierende Klassifizierung landwirtschaftlicher Nutzflächen kann sowohl mit optischen Bildprodukten, als auch mit Radarbildern durchgeführt werden. Während jedoch der sinnvolle Einsatz multispektraler Satellitenbilder sowohl eine fortgeschrittene Wachstumsphase der jeweiligen Kulturart als auch geeignete Wetterbedingungen voraussetzt, beinhalten die von Wolkenbedeckung und Sonnenlicht unabhängigen SAR - Daten bereits zu Beginn der Vegetationsperiode aufschlußreiche Informationen über potentielle Veränderungen der Oberflächenelemente. Für den Auswerteprozeß dieser synthetischen Radardaten ist sowohl eine optimale Wahl der Aufnahmezeitpunkte als auch eine sorgfältig durchgeführte Vorverarbeitung hinsichtlich einer radiometrischen und geometrischen Kalibrierung sowie einer Reduktion des als 'Speckle' bezeichneten multiplikativem Rauschens von besonderer Wichtigkeit. In dieser Arbeit werden zunächst grundlegende Charakteristika aktiv scannender Radarsysteme hinsichtlich Geometrie und Radiometrie vermittelt. Nach einer detailierten Analyse der Entstehung des Speckle - Effekts werden verschiedene Filteralgorithmen zur Beseitigung des Rauschens beschrieben. Unter den dort erwähnten Methoden nimmt die als Adaptive Image Fusion (AIF) bezeichnete Filtertechnik eine Sonderstellung ein. Bei diesem Verfahren erfolgt eine Verknüpfung eines hochauflösenden Bildes (z.B. panchromatischer Kanal eines optischen Satellitensystems oder Ortho-photo) mit einem SAR - Bild auf einem merkmalsbasierten Abstraktionslevel. Der eigentliche Filtervorgang findet bei einer AIF im hochauflösenden Bildprodukt statt, wobei die dort durchgeführte Glättung und Kantenverstärkung in ein Bild geringerer räumlicher Auflösung transformiert wird, ohne jedoch dessen radiometrische Eigenschaften zu verändern. Im letzten Teil dieser Arbeit wird ein auf der vorhergehenden AIF basierender Klassifikationsansatz landwirtschaftlicher Flächen mit multitemporalen ERS-2 Radardatensätzen beschrieben. Eine nachfolgende Analyse des mäßigen Klassifikationsergebnisses sowie ein kurzer Ausblick auf einen alternativen, in einem Pilotprojekt der europäischen Kommission für Landwirtschaft durchgeführten Verarbeitungsprozeß von Radardaten beschließen diese Arbeit. Ziel dieser Diplomarbeit ist es, Verständnis für den potentiellen Einsatzbereich von SAR - Daten hinsichtlich landwirtschaftlicher Applikationen zu erwecken sowie die Vorteile der AIF angewandt auf Radardaten gegenüber bereits vorhandenen Methoden der räumlichen Speckle - Filterung hervorzuheben.
Eine auf Fernerkundungsdaten basierende Klassifizierung landwirtschaftlicher Nutzflächen kann sowohl mit optischen Bildprodukten, als auch mit Radarbildern durchgeführt werden. Während jedoch der sinnvolle Einsatz multispektraler Satellitenbilder sowohl eine fortgeschrittene Wachstumsphase der jeweiligen Kulturart als auch geeignete Wetterbedingungen voraussetzt, beinhalten die von Wolkenbedeckung und Sonnenlicht unabhängigen SAR - Daten bereits zu Beginn der Vegetationsperiode aufschlußreiche Informationen über potentielle Veränderungen der Oberflächenelemente. Für den Auswerteprozeß dieser synthetischen Radardaten ist sowohl eine optimale Wahl der Aufnahmezeitpunkte als auch eine sorgfältig durchgeführte Vorverarbeitung hinsichtlich einer radiometrischen und geometrischen Kalibrierung sowie einer Reduktion des als 'Speckle' bezeichneten multiplikativem Rauschens von besonderer Wichtigkeit. In dieser Arbeit werden zunächst grundlegende Charakteristika aktiv scannender Radarsysteme hinsichtlich Geometrie und Radiometrie vermittelt. Nach einer detailierten Analyse der Entstehung des Speckle - Effekts werden verschiedene Filteralgorithmen zur Beseitigung des Rauschens beschrieben. Unter den dort erwähnten Methoden nimmt die als Adaptive Image Fusion (AIF) bezeichnete Filtertechnik eine Sonderstellung ein. Bei diesem Verfahren erfolgt eine Verknüpfung eines hochauflösenden Bildes (z.B. panchromatischer Kanal eines optischen Satellitensystems oder Ortho-photo) mit einem SAR - Bild auf einem merkmalsbasierten Abstraktionslevel. Der eigentliche Filtervorgang findet bei einer AIF im hochauflösenden Bildprodukt statt, wobei die dort durchgeführte Glättung und Kantenverstärkung in ein Bild geringerer räumlicher Auflösung transformiert wird, ohne jedoch dessen radiometrische Eigenschaften zu verändern. Im letzten Teil dieser Arbeit wird ein auf der vorhergehenden AIF basierender Klassifikationsansatz landwirtschaftlicher Flächen mit multitemporalen ERS-2 Radardatensätzen beschrieben. Eine nachfolgende Analyse des mäßigen Klassifikationsergebnisses sowie ein kurzer Ausblick auf einen alternativen, in einem Pilotprojekt der europäischen Kommission für Landwirtschaft durchgeführten Verarbeitungsprozeß von Radardaten beschließen diese Arbeit. Ziel dieser Diplomarbeit ist es, Verständnis für den potentiellen Einsatzbereich von SAR - Daten hinsichtlich landwirtschaftlicher Applikationen zu erwecken sowie die Vorteile der AIF angewandt auf Radardaten gegenüber bereits vorhandenen Methoden der räumlichen Speckle - Filterung hervorzuheben.
3D-Auswertung von digitalen Nahbereichsaufnahmen mit Bündelblockausgleichung und Gestaltbedingungen - Zuverlässigkeits- und Wirtschaftlichkeitsuntersuchung
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1999. Begutachter: Univ.Prof. Dr. K. Kraus, Betreuer: Dr. G. Forkert.
Kurzfassung/Abstract
Am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien wurde ein Verfahren zur 3D-Auswertung digitaler Nahbereichsaufnahmen entwickelt. Der Arbeitsablauf besteht aus der Aufnahme der Bilder mit der digitalen Kamera Kodak DCS 460c, der Bildmessung im Mehrbildkomparatormodus mit dem Softwarepaket PhotoModeler und der Bündelblockausgleichung mit ORIENT. Mit Hilfe von IDL-Bildverarbeitungsroutinen wird ein 3D-Photomodell erzeugt. ORIENT ist ein universelles Ausgleichungsprogramm, das nicht nur die Bildmessungen, sondern auch geodätische Messungen und fiktive Gestaltbeobachtungen bei der Ausgleichung berücksichtigen kann. Gebäude weisen im allgemeinen bestimmte Charakteristika auf. Sie bestehen aus vertikalen und horizontalen Ebenen. Vertikale Ebenen stehen zudem häufig orthogonal aufeinander oder sind parallel. Diese Charakteristika werden als fiktive Gestaltbeobachtungen bezeichnet. Fiktiv deshalb, weil sich diese Beobachtungen auf die menschliche Erfahrung und Wahrnehmung stützen und nicht mit dem gewohnten geodätischen oder photogrammetrischen Werkzeug gemessen werden. Gestaltbeobachtungen ergänzen fehlende oder schlecht kontrollierte Bildbeobachtungen; sie werden bei der Bündelblockausgleichung berücksichtigt. Anhand eines Testobjekts, eines Gebäudeblocks in der Nähe der TU Wien, wurde geprüft, ob diese Annahmen über die Form des Objektes gerechtfertigt sind. Es wurde untersucht, wie sich die fiktiven Gestaltbeobachtungen auf die Genauigkeit und Zuverlässigkeit bei der photogrammetrischen Punktbestimmung auswirken und in welcher Form diese Beobachtungen die wirtschaftliche Auswertung beeinflussen. Die Bündelblockausgleichung mit Gestalten zeigte, daß sich die innere Genauigkeit der ausgeglichenen Objektpunkte stark verbesserte. Falls der Genauigkeitsgewinn nicht im Vordergrund steht, kann die in den Gestaltbeobachtungen enthaltene Information für die Reduktion der photogrammetrischen Messungen genützt werden. Im Beispiel dieser Diplomarbeit ergab sich bei der Reduktion von 40 % der photogrammetrischen Messungen noch ein brauchbares Ergebnis.
Am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien wurde ein Verfahren zur 3D-Auswertung digitaler Nahbereichsaufnahmen entwickelt. Der Arbeitsablauf besteht aus der Aufnahme der Bilder mit der digitalen Kamera Kodak DCS 460c, der Bildmessung im Mehrbildkomparatormodus mit dem Softwarepaket PhotoModeler und der Bündelblockausgleichung mit ORIENT. Mit Hilfe von IDL-Bildverarbeitungsroutinen wird ein 3D-Photomodell erzeugt. ORIENT ist ein universelles Ausgleichungsprogramm, das nicht nur die Bildmessungen, sondern auch geodätische Messungen und fiktive Gestaltbeobachtungen bei der Ausgleichung berücksichtigen kann. Gebäude weisen im allgemeinen bestimmte Charakteristika auf. Sie bestehen aus vertikalen und horizontalen Ebenen. Vertikale Ebenen stehen zudem häufig orthogonal aufeinander oder sind parallel. Diese Charakteristika werden als fiktive Gestaltbeobachtungen bezeichnet. Fiktiv deshalb, weil sich diese Beobachtungen auf die menschliche Erfahrung und Wahrnehmung stützen und nicht mit dem gewohnten geodätischen oder photogrammetrischen Werkzeug gemessen werden. Gestaltbeobachtungen ergänzen fehlende oder schlecht kontrollierte Bildbeobachtungen; sie werden bei der Bündelblockausgleichung berücksichtigt. Anhand eines Testobjekts, eines Gebäudeblocks in der Nähe der TU Wien, wurde geprüft, ob diese Annahmen über die Form des Objektes gerechtfertigt sind. Es wurde untersucht, wie sich die fiktiven Gestaltbeobachtungen auf die Genauigkeit und Zuverlässigkeit bei der photogrammetrischen Punktbestimmung auswirken und in welcher Form diese Beobachtungen die wirtschaftliche Auswertung beeinflussen. Die Bündelblockausgleichung mit Gestalten zeigte, daß sich die innere Genauigkeit der ausgeglichenen Objektpunkte stark verbesserte. Falls der Genauigkeitsgewinn nicht im Vordergrund steht, kann die in den Gestaltbeobachtungen enthaltene Information für die Reduktion der photogrammetrischen Messungen genützt werden. Im Beispiel dieser Diplomarbeit ergab sich bei der Reduktion von 40 % der photogrammetrischen Messungen noch ein brauchbares Ergebnis.
Machbarkeitsstudie - Übertragung des Datenmodells des Verwaltungs- und Netz-Informationssystems der Landeshauptstadt Salzburg in das ÖNORM-Modell
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU-Graz, 1999. Begutachter und Betreuer: Univ.Prof. Dr.phil. N. Bartelme.
Kurzfassung/Abstract
Bei den Salzburger Stadtwerken und beim Magistrat Salzburg wird die Bestandsdokumentation und die Planung von neuen Leitungen in digitaler Art und Weise durchgeführt. Diese Zusammenarbeit führte in weiterer Folge zur Realisierung einer gemeinsamen GIS Lösung. Es wurde ein gemeinsames Datenkonzept, das sogenannte VNIS-Konzept (Verwaltungs- und Netz- Informationssystem der Landeshauptstadt Salzburg), gemeinsam erarbeitet und eingeführt. Dieses Konzept umspannt die Bereiche des Katasters, der Topographie, des Leitungskatasters, der Kanalgrafik und der Dachformen der Altstadt. Es wurden jene Teile, die für die Grundkarte von Bedeutung sind (Topographie und Kataster), in die objektorientierte Struktur des Objektschlüsselkataloges der ÖNORM A 2261 Teil 2 (Naturbestand) übergeführt. Die Überführung wird weitgehend mit den in der ÖNORM A 2261-2 definierten Objekten bewerkstelligt. In den Fällen wo dies nicht möglich ist, wird auf eine ÖNORM gerechte Überführung geachtet. Dies bedeutet, daß in manchen Fällen eine Ausdehnung des Objektschlüsselkataloges der ÖNORM erforderlich war. Weiters wurden die Elementtypen des VNIS-Konzeptes festgehalten und die für die Migration notwendigen Parameter festgelegt. Die Arbeit kann im Internet, unter der Homepage der Salzburger Stadtwerke (www.salzburger-stadtwerke.at/) abgerufen werden.
Bei den Salzburger Stadtwerken und beim Magistrat Salzburg wird die Bestandsdokumentation und die Planung von neuen Leitungen in digitaler Art und Weise durchgeführt. Diese Zusammenarbeit führte in weiterer Folge zur Realisierung einer gemeinsamen GIS Lösung. Es wurde ein gemeinsames Datenkonzept, das sogenannte VNIS-Konzept (Verwaltungs- und Netz- Informationssystem der Landeshauptstadt Salzburg), gemeinsam erarbeitet und eingeführt. Dieses Konzept umspannt die Bereiche des Katasters, der Topographie, des Leitungskatasters, der Kanalgrafik und der Dachformen der Altstadt. Es wurden jene Teile, die für die Grundkarte von Bedeutung sind (Topographie und Kataster), in die objektorientierte Struktur des Objektschlüsselkataloges der ÖNORM A 2261 Teil 2 (Naturbestand) übergeführt. Die Überführung wird weitgehend mit den in der ÖNORM A 2261-2 definierten Objekten bewerkstelligt. In den Fällen wo dies nicht möglich ist, wird auf eine ÖNORM gerechte Überführung geachtet. Dies bedeutet, daß in manchen Fällen eine Ausdehnung des Objektschlüsselkataloges der ÖNORM erforderlich war. Weiters wurden die Elementtypen des VNIS-Konzeptes festgehalten und die für die Migration notwendigen Parameter festgelegt. Die Arbeit kann im Internet, unter der Homepage der Salzburger Stadtwerke (www.salzburger-stadtwerke.at/) abgerufen werden.
Konvergenzmessungen in der NÖT - Graphische Darstellungsformen und der Bezug zur Tunnelmechanik
Institut für Ingenieurgeodäsie und Landesvermessung, Abteilung Ingenieurvermessung, TU Wien, 1998. Begutachter und Betreuer: Ao. Univ. Prof. Dipl.-Ing.Dr.. Th. Wunderlich.
Kurzfassung/Abstract
Die Diplomarbeit befaßt sich mit unterschiedlichen Bereichen der "Neuen Österreichischen Tunnelbauweise", kurz NÖT, welche in den Jahren 1957 bis 1965 von österreichischen Ingenieuren entwickelt und von RABCEWICZ als solche bezeichnet wurde. Der thematische Schwerpunkt der Arbeit liegt sowohl im Bereich der Deformationsmessungen bzw. deren graphischen Darstellungsarten sowie dem damit eng verbundenen Einsatz von Stützmitteln. Es soll, basierend auf Grundlagen der Tunnelmechanik, Geologie und Geotechnik gezeigt werden, warum gerade in der NÖT Konvergenzmessungen so wichtig sind. Da ich die Möglichkeit hatte, beim Bau des Umfahrungstunnels in Schwarzach/Land Salzburg Konvergenz- und Profilmessungen durchzuführen, fließen neben Theorien, die den Tunnel aus geophysikalischer Sicht modellieren und beschreiben, auch praktische Meßergebnisse und Erfahrungen in die Arbeit ein. Der geodätische Aspekt in vorliegender Arbeit besteht einerseits darin, den Ablauf der Konvergenzmessungen und die Netzgeometrie des Über- und Untertagnetzes darzustellen, andererseits ein von mir entworfenes Computerprogramm vorzustellen, das aus den im Tunnel gemessenen Koordinaten die Tunneldeformationen berechnet und eine 3D-Visualisierung derselben erlaubt. Dieses Programm ermöglicht es, alle drei Deformationskomponenten in den Meßpunkten gleichzeitig zu visualisieren, was für die geologische Interpretation der Tunnelumgebung von Bedeutung ist.
Die Diplomarbeit befaßt sich mit unterschiedlichen Bereichen der "Neuen Österreichischen Tunnelbauweise", kurz NÖT, welche in den Jahren 1957 bis 1965 von österreichischen Ingenieuren entwickelt und von RABCEWICZ als solche bezeichnet wurde. Der thematische Schwerpunkt der Arbeit liegt sowohl im Bereich der Deformationsmessungen bzw. deren graphischen Darstellungsarten sowie dem damit eng verbundenen Einsatz von Stützmitteln. Es soll, basierend auf Grundlagen der Tunnelmechanik, Geologie und Geotechnik gezeigt werden, warum gerade in der NÖT Konvergenzmessungen so wichtig sind. Da ich die Möglichkeit hatte, beim Bau des Umfahrungstunnels in Schwarzach/Land Salzburg Konvergenz- und Profilmessungen durchzuführen, fließen neben Theorien, die den Tunnel aus geophysikalischer Sicht modellieren und beschreiben, auch praktische Meßergebnisse und Erfahrungen in die Arbeit ein. Der geodätische Aspekt in vorliegender Arbeit besteht einerseits darin, den Ablauf der Konvergenzmessungen und die Netzgeometrie des Über- und Untertagnetzes darzustellen, andererseits ein von mir entworfenes Computerprogramm vorzustellen, das aus den im Tunnel gemessenen Koordinaten die Tunneldeformationen berechnet und eine 3D-Visualisierung derselben erlaubt. Dieses Programm ermöglicht es, alle drei Deformationskomponenten in den Meßpunkten gleichzeitig zu visualisieren, was für die geologische Interpretation der Tunnelumgebung von Bedeutung ist.
Automatisierte Messung von Geländemodellen und Fließvektoren aus digitalen, multitemporalen Orthophotos - ein neuer Ansatz für das Blockgletscher-Monitoring
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, TU Graz, 1999. Begutachter: Univ.Prof. Dr. G. Brandstätter, Betreuer: Dr. V. Kaufmann.
Kurzfassung/Abstract
Die konventionelle photogrammetrische Auswertung multi-temporaler Luftbilder zur Analyse der Fließbewegung und Volumsänderung von Blockgletschern stellt einen schwierigen und zeitaufwendigen Prozeß dar. Als Alternative bietet sich die Digitalphotogrammetrie an, mit deren Hilfe die Messung homologer Punkte in digitalen (Stereo-)Bildern automatisiert werden kann. Es wird ein neues Verfahren eingesetzt, bei dem die Punktübertragung nach der Methode der kleinsten Quadrate nicht in den Originalbildern, sondern in davon abgeleiteten Orthophotos erfolgt. Die Verwendung eines genäherten Geländemodells ist ausreichend, um die unterschiedlichen Bildgeometrien aneinander anzugleichen. Dadurch läßt sich die Genauigkeit und Zuverlässigkeit der digitalen Messung steigern. Die Implementierung des Systems, das aus vier getrennten Moduln besteht, erfolgte in der Sprache "C" unter Windows NT. Die bereitgestellte Funktionalität umfaßt die Selektion markanter Punkte, Prädiktion von Näherungspositionen, digitale Punktübertragung und Punktrekonstruktion. Zur Überprüfung der Praxistauglichkeit wurden Testauswertungen für den Dösener Blockgletscher und das schuttbedeckte Gößnitzkees durchgeführt. Die aus den digitalen Messungen abgeleiteten Ergebnisse zeigen eine gute Übereinstimmung mit der bereits vorhandenen photogrammetrischen Auswertung. Darüber hinaus weisen die gemessenen Fließvektoren eine hohe Dichte und gleichmäßige Verteilung auf.
Die konventionelle photogrammetrische Auswertung multi-temporaler Luftbilder zur Analyse der Fließbewegung und Volumsänderung von Blockgletschern stellt einen schwierigen und zeitaufwendigen Prozeß dar. Als Alternative bietet sich die Digitalphotogrammetrie an, mit deren Hilfe die Messung homologer Punkte in digitalen (Stereo-)Bildern automatisiert werden kann. Es wird ein neues Verfahren eingesetzt, bei dem die Punktübertragung nach der Methode der kleinsten Quadrate nicht in den Originalbildern, sondern in davon abgeleiteten Orthophotos erfolgt. Die Verwendung eines genäherten Geländemodells ist ausreichend, um die unterschiedlichen Bildgeometrien aneinander anzugleichen. Dadurch läßt sich die Genauigkeit und Zuverlässigkeit der digitalen Messung steigern. Die Implementierung des Systems, das aus vier getrennten Moduln besteht, erfolgte in der Sprache "C" unter Windows NT. Die bereitgestellte Funktionalität umfaßt die Selektion markanter Punkte, Prädiktion von Näherungspositionen, digitale Punktübertragung und Punktrekonstruktion. Zur Überprüfung der Praxistauglichkeit wurden Testauswertungen für den Dösener Blockgletscher und das schuttbedeckte Gößnitzkees durchgeführt. Die aus den digitalen Messungen abgeleiteten Ergebnisse zeigen eine gute Übereinstimmung mit der bereits vorhandenen photogrammetrischen Auswertung. Darüber hinaus weisen die gemessenen Fließvektoren eine hohe Dichte und gleichmäßige Verteilung auf.
Vektorbasierter GIS-Algorithmus zum Planen und Optimieren von zellularen Telekommunikationsnetzwerken (in englischer Sprache)
Institut für Geoinformation, TU Wien, 1999. Begutachter: Univ.Prof. Dr. A. Frank, Betreuer: Dr. St. Winter
Kurzfassung/Abstract
Einer der bedeutendsten Schritte der Planung von zellularen Telekommunikationsnetzwerken ist die Frequenzplanung. Bei der Frequenzplanung werden Frequenzen zu den Basisstation, landläufig Antenne genannt, zugewiesen. Problematisch ist dabei, daß die limitierte Anzahl von Frequenzen, die jedem Netzbetreiber zur Verfügung steht, so den Basisstationen zugeteilt werden müssen, daß es zu möglichst keinen störenden Interferenzen durch Überlagerung von Sendebereichen gleicher Frequenz kommt. Zur Frequenzplanung benötigt man die Ergebnisse der Nachbarschaftsplanung. In der Nachbarschaftsplanung wird festgestellt, welche Basisstationen Nachbarn sind, das heißt, bei welchen Basisstationen es zur Überlagerungen von Sendebereichen kommt. Aufgrund der komplexer Architektur zellularer Telekommunikationsnetzwerke ist die rechnergestützte Nachbarschaftsplanung unabdingbar. Die vorhandene rasterbasierte Planungssoftware liefert gute Resultate, aber in Stadtgebieten sind die Ergebnisse unzureichend. Das liegt an der Schwierigkeit der Feldstärkeprädiktion in bebautem Gelände und an der geringen Auflösung der rasterbasierten Feldstärkemodelle. In einem Feldstärkemodell wird die Feldstärke, die in einem Sendebereich herrscht, verspeichert. Das Ziel der Diplomarbeit ist es, eine Methode zu entwickeln, die ein vektorbasiertes Feldstärkenmodell verwendet, um die Nachbarschaftsplanung von Mikrozellen in Städten zu erleichtern. Das Signal jeder Basisstation bildet eine thematische Oberfläche, bei der die Feldstärke des Signals die Höheninformation darstellt. Daher nennen wir die Oberfläche in Folge Feldstärke-Oberfläche. Das vektorbasierte Feldstärkenmodell modelliert die Feldstärke-Oberfläche mittels Isolinien. Das Resultat ist ein Sets von ineinander liegenden Polygonen, in Folge Set genannt. Alle Sets zusammen ergeben das sogenannte Polygonmodell. Das Polygonmodell ist die Grundlage für alle weiteren Betrachtungen. Nachdem sich in der Realität die Feldstärke-Oberflächen überschneiden, überschneiden sich im Polygonmodell auch die Sets. Da man aus der Art und Weise, wie sich die Feldstärke-Oberflächen überschneiden, Nachbarschaft zwischen Basisstationen ableiten kann, lautete die Hypothese der Diplomarbeit, daß man aus der Art und Weise, wie sich die Sets im Polygonmodell überschneiden, ebenso Nachbarschaft ableiten kann. Die Folgerung ist, daß sich aufgrund von topologischen Relationen zwischen den Polygonen der Sets eine Nachbarschaft ableiten läßt. In der Untersuchung der topologischen Beziehungen zwischen Sets von Polygonen. wurden Regeln gefunden, die es erlauben, von vorhandenen topologischen Relationen zwischen Polygonen in Sets auf andere Relationen zu schließen, ohne diese explizit zu errechnen. Weiters wurden die Regeln, die in der Realität für Nachbarschaft zwischen zwei Basisstationen gelten, gefunden, und in ihr topologisches Pendant im Polygonmodell übersetzt. Somit gelingt es, aus den topologischen Beziehungen der Polygone im Polygonmodell Nachbarschaftsbeziehungen in der Realität abzuleiten. Die Beziehungen zwischen Polygonen beziehungsweise den Sets und somit zwischen den Basisstationen wurden in einem dualen Graphen verspeichert, um das Errechnen der Nachbarschaften jeder einzelnen Basisstation zu vereinfachen. Die entwickelte Methode wurde in einer Software, die unter ArcView entwickelt wurde, bei max.mobil. implementiert und getestet. Der Test führt zu plausiblen Ergebnissen, die bei der Nachbarschaftsplanung von Mikrozellen integriert werden können.
Einer der bedeutendsten Schritte der Planung von zellularen Telekommunikationsnetzwerken ist die Frequenzplanung. Bei der Frequenzplanung werden Frequenzen zu den Basisstation, landläufig Antenne genannt, zugewiesen. Problematisch ist dabei, daß die limitierte Anzahl von Frequenzen, die jedem Netzbetreiber zur Verfügung steht, so den Basisstationen zugeteilt werden müssen, daß es zu möglichst keinen störenden Interferenzen durch Überlagerung von Sendebereichen gleicher Frequenz kommt. Zur Frequenzplanung benötigt man die Ergebnisse der Nachbarschaftsplanung. In der Nachbarschaftsplanung wird festgestellt, welche Basisstationen Nachbarn sind, das heißt, bei welchen Basisstationen es zur Überlagerungen von Sendebereichen kommt. Aufgrund der komplexer Architektur zellularer Telekommunikationsnetzwerke ist die rechnergestützte Nachbarschaftsplanung unabdingbar. Die vorhandene rasterbasierte Planungssoftware liefert gute Resultate, aber in Stadtgebieten sind die Ergebnisse unzureichend. Das liegt an der Schwierigkeit der Feldstärkeprädiktion in bebautem Gelände und an der geringen Auflösung der rasterbasierten Feldstärkemodelle. In einem Feldstärkemodell wird die Feldstärke, die in einem Sendebereich herrscht, verspeichert. Das Ziel der Diplomarbeit ist es, eine Methode zu entwickeln, die ein vektorbasiertes Feldstärkenmodell verwendet, um die Nachbarschaftsplanung von Mikrozellen in Städten zu erleichtern. Das Signal jeder Basisstation bildet eine thematische Oberfläche, bei der die Feldstärke des Signals die Höheninformation darstellt. Daher nennen wir die Oberfläche in Folge Feldstärke-Oberfläche. Das vektorbasierte Feldstärkenmodell modelliert die Feldstärke-Oberfläche mittels Isolinien. Das Resultat ist ein Sets von ineinander liegenden Polygonen, in Folge Set genannt. Alle Sets zusammen ergeben das sogenannte Polygonmodell. Das Polygonmodell ist die Grundlage für alle weiteren Betrachtungen. Nachdem sich in der Realität die Feldstärke-Oberflächen überschneiden, überschneiden sich im Polygonmodell auch die Sets. Da man aus der Art und Weise, wie sich die Feldstärke-Oberflächen überschneiden, Nachbarschaft zwischen Basisstationen ableiten kann, lautete die Hypothese der Diplomarbeit, daß man aus der Art und Weise, wie sich die Sets im Polygonmodell überschneiden, ebenso Nachbarschaft ableiten kann. Die Folgerung ist, daß sich aufgrund von topologischen Relationen zwischen den Polygonen der Sets eine Nachbarschaft ableiten läßt. In der Untersuchung der topologischen Beziehungen zwischen Sets von Polygonen. wurden Regeln gefunden, die es erlauben, von vorhandenen topologischen Relationen zwischen Polygonen in Sets auf andere Relationen zu schließen, ohne diese explizit zu errechnen. Weiters wurden die Regeln, die in der Realität für Nachbarschaft zwischen zwei Basisstationen gelten, gefunden, und in ihr topologisches Pendant im Polygonmodell übersetzt. Somit gelingt es, aus den topologischen Beziehungen der Polygone im Polygonmodell Nachbarschaftsbeziehungen in der Realität abzuleiten. Die Beziehungen zwischen Polygonen beziehungsweise den Sets und somit zwischen den Basisstationen wurden in einem dualen Graphen verspeichert, um das Errechnen der Nachbarschaften jeder einzelnen Basisstation zu vereinfachen. Die entwickelte Methode wurde in einer Software, die unter ArcView entwickelt wurde, bei max.mobil. implementiert und getestet. Der Test führt zu plausiblen Ergebnissen, die bei der Nachbarschaftsplanung von Mikrozellen integriert werden können.
GNSS - Zukünftige Entwicklungen
Institut für Angewandte Geodäsie, Abteilung für Positionierung und Navigation, TU Graz, 1999.
Kurzfassung/Abstract
Das Akronym GNSS steht für Global Navigation Satellite System und wurde durch die International Civil Aviation Organization (ICAO) für global verfügbare Satellitennavigationssysteme geprägt. Die Satellitennavigation hat sich in den letzten Jahren zu einem effizienten Instrument entwickelt, dessen Bedeutung für viele zivile und militärische Anwendungsgebiete aber auch für politische und wirtschaftliche Fragen ständig im Wachsen begriffen ist. Derzeit sind in diesem Bereich sehr rasche (und auch überraschende) Entwicklungen und Veränderungen zu beobachten. Der Grund hierfür ist vor allem dadurch gegeben, daß die heute verfügbaren Systeme den Anforderungen vieler ziviler Nutzer nicht gerecht werden können; insbesondere die Zivilluftfahrt zeichnet sich durch sehr hohe Anforderungen an die Qualität von Navigationsdaten aus. Die Diplomarbeit beschreibt zunächst die Grundlagen der Satellitennavigation und die derzeit aktuellen Systeme GPS und GLONASS und konzentriert sich in der Folge auf das zukünftige GNSS. Bezüglich GNSS unterscheidet man zwischen zwei Systemgenerationen: die erste Generation wird durch lokale und regionale Ergänzungssysteme zu GPS (und GLONASS) gebildet; die zweite Generation wird nach dem momentanen Informationsstand aus einem modernisierten GPS und einem neu entwickelten europäischen System namens Galileo bestehen, die miteinander kompatibel sein werden und sich gegenseitig ergänzen.
Das Akronym GNSS steht für Global Navigation Satellite System und wurde durch die International Civil Aviation Organization (ICAO) für global verfügbare Satellitennavigationssysteme geprägt. Die Satellitennavigation hat sich in den letzten Jahren zu einem effizienten Instrument entwickelt, dessen Bedeutung für viele zivile und militärische Anwendungsgebiete aber auch für politische und wirtschaftliche Fragen ständig im Wachsen begriffen ist. Derzeit sind in diesem Bereich sehr rasche (und auch überraschende) Entwicklungen und Veränderungen zu beobachten. Der Grund hierfür ist vor allem dadurch gegeben, daß die heute verfügbaren Systeme den Anforderungen vieler ziviler Nutzer nicht gerecht werden können; insbesondere die Zivilluftfahrt zeichnet sich durch sehr hohe Anforderungen an die Qualität von Navigationsdaten aus. Die Diplomarbeit beschreibt zunächst die Grundlagen der Satellitennavigation und die derzeit aktuellen Systeme GPS und GLONASS und konzentriert sich in der Folge auf das zukünftige GNSS. Bezüglich GNSS unterscheidet man zwischen zwei Systemgenerationen: die erste Generation wird durch lokale und regionale Ergänzungssysteme zu GPS (und GLONASS) gebildet; die zweite Generation wird nach dem momentanen Informationsstand aus einem modernisierten GPS und einem neu entwickelten europäischen System namens Galileo bestehen, die miteinander kompatibel sein werden und sich gegenseitig ergänzen.
Entzerrung von Fernerkundungsbildern unter Verwendung von Fluglageparametern
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, TU Graz, 1999.
Kurzfassung/Abstract
In den letzten Jahren gab es eine enorme Entwicklung auf dem Gebiet der Fernerkundung. Zusammen mit modernen Navigationstechnologien wie dem Global Positioning System (GPS) und Inertial Navigation Systems (INS) sind daher auch immer mehr flugzeuggetragene Systeme zur Datenerfassung entwickelt und erprobt worden. Für diese ist eine genaue Aufzeichnung der Flugtrajektorie mit ihren hochfrequenten Änderungen notwendig, um das stark verzerrte Meßbild in ein geometrisch verwertbares Ergebnis zu verwandeln. Flugzeuggetragene Spiegelscanner sind ein Beispiel für Fernerkundungssysteme, die von den angesprochenen Entwicklungen profitieren. Durch die relativ einfache und flexible Einsetzbarkeit steigt daher auch der Wunsch nach Softwareprodukten, die solche Daten verarbeiten können. Aus diesem Grund wurde die vorliegende Diplomarbeit an der Forschungsanstalt Joanneum Research Graz durchgeführt, und im Zuge dieser ein Modul für das bestehende Softwarepaket "Remote Sensing Graz" (RSG) zur Verarbeitung von flugzeuggetragenen Scannerdaten entwickelt. Als Testdaten standen Meßstreifen einer Befliegung des Grazer Raumes zur Verfügung, welche mit dem System Airborne Thematic Mapper (ATM) durchgeführt wurde.
In den letzten Jahren gab es eine enorme Entwicklung auf dem Gebiet der Fernerkundung. Zusammen mit modernen Navigationstechnologien wie dem Global Positioning System (GPS) und Inertial Navigation Systems (INS) sind daher auch immer mehr flugzeuggetragene Systeme zur Datenerfassung entwickelt und erprobt worden. Für diese ist eine genaue Aufzeichnung der Flugtrajektorie mit ihren hochfrequenten Änderungen notwendig, um das stark verzerrte Meßbild in ein geometrisch verwertbares Ergebnis zu verwandeln. Flugzeuggetragene Spiegelscanner sind ein Beispiel für Fernerkundungssysteme, die von den angesprochenen Entwicklungen profitieren. Durch die relativ einfache und flexible Einsetzbarkeit steigt daher auch der Wunsch nach Softwareprodukten, die solche Daten verarbeiten können. Aus diesem Grund wurde die vorliegende Diplomarbeit an der Forschungsanstalt Joanneum Research Graz durchgeführt, und im Zuge dieser ein Modul für das bestehende Softwarepaket "Remote Sensing Graz" (RSG) zur Verarbeitung von flugzeuggetragenen Scannerdaten entwickelt. Als Testdaten standen Meßstreifen einer Befliegung des Grazer Raumes zur Verfügung, welche mit dem System Airborne Thematic Mapper (ATM) durchgeführt wurde.
GPS-Fahrzeugnavigation im urbanen Raum mit Stützung durch Barometerdaten und Map-Matching-Algorithmen
Institut für Geodäsie und Geophysik, Abteilung Angewandte Geodäsie und Ingenieurgeodäsie, TU Wien, 1999. Begutachter und Betreuer: Univ.Doz. Dr. Th. Wunderlich
Kurzfassung/Abstract
Gemeinsam mit den rasanten Entwicklungen auf dem GPS-Sektor hat sich auch das Gebiet der Fahrzeugnavigation in den letzten Jahren rasch weiterentwickelt. Um das Hauptproblem bei der GPS-Navigation in urbanen Gebieten, die starke Einschränkung der Systemverfügbarkeit wegen häufiger Signalabschattungen durch Gebäude, zu kompensieren, kombinieren die handelsüblichen Fahrzeugnavigationssysteme GPS mit anderen fix im Fahrzeug montierten Sensoren, vorwiegend solchen zur Messung von Weglängen und Richtungen bzw. Richtungsänderungen. Es gibt jedoch auch Bestrebungen, GPS-Navigation durch fahrzeugunabhängige Sensoren und spezielle mathematische Verfahren zu unterstützen und so transportable, billigere und flexiblere Fahrzeugnavigationssysteme zu entwickeln. Im Rahmen dieser Diplomarbeit wurde der Prototyp eines solchen Systems auf der Basis von GPS-Pseudostreckenmessungen mit Unterstützung durch barometrisch bestimmte Höhen und Map-Matching Algorithmen, speziell für den urbanen Raum entwickelt. Das Herzstück des Systems bildet die eigens programmierte Auswertesoftware GRAHAM. Das Programm ist im Prinzip online-fähig und verarbeitet neben den GPS-Pseudostrecken und der barometrischen Höhe auch Richtungsinformationen, die aus einer digitalen Karte mit Hilfe eines eigens entwickelten Map-Matching-Algorithmus abgeleitet werden, gemeinsam in einem Kalman Filter. Um das System zu testen, wurde für ein repräsentatives Gebiet von Wien eine digitale Karte erstellt und einige Testfahrten durchgeführt, bei denen die Meßdaten eines GPS-Empfängers und eines Altimeters aufgezeichnet und anschließend mit den verschiedenen Auswerteverfahren, die von GRAHAM zur Verfügung gestellt werden, verarbeitet wurden. Die Verfahren umfassen neben dem bereits erwähnten Map-Matching-Modus die reine GPS-Auswertung, die epochenweise Berechnung von Positionen mittels altimetergestütztem GPS bei mindestens drei gemessenen Pseudostrecken und die gemeinsame Verarbeitung der GPS- und Barometerdaten in einem Kalman Filter, unabhängig von der Anzahl der beobachteten Satelliten. Der Vergleich der Ergebnisse zeigte, daß durch die Einbindung der barometrischen Höhe wesentlich mehr Positionen bestimmt werden konnten, als bei der reinen GPS-Auswertung. Der Einsatz des Kalman Filters bewirkte eine weitere Verbesserung der Ergebnisse und ermöglichte die Bestimmung von zusammenhängenden Fahrzeugtrajektorien. Mit Hilfe des Map-Matching-Verfahrens konnten schließlich aufgrund der abgeleiteten Richtungsinformationen wesentlich bessere Trajektorien bestimmt und die berechneten Positionen in das Straßennetzwerk eingepaßt werden.
Gemeinsam mit den rasanten Entwicklungen auf dem GPS-Sektor hat sich auch das Gebiet der Fahrzeugnavigation in den letzten Jahren rasch weiterentwickelt. Um das Hauptproblem bei der GPS-Navigation in urbanen Gebieten, die starke Einschränkung der Systemverfügbarkeit wegen häufiger Signalabschattungen durch Gebäude, zu kompensieren, kombinieren die handelsüblichen Fahrzeugnavigationssysteme GPS mit anderen fix im Fahrzeug montierten Sensoren, vorwiegend solchen zur Messung von Weglängen und Richtungen bzw. Richtungsänderungen. Es gibt jedoch auch Bestrebungen, GPS-Navigation durch fahrzeugunabhängige Sensoren und spezielle mathematische Verfahren zu unterstützen und so transportable, billigere und flexiblere Fahrzeugnavigationssysteme zu entwickeln. Im Rahmen dieser Diplomarbeit wurde der Prototyp eines solchen Systems auf der Basis von GPS-Pseudostreckenmessungen mit Unterstützung durch barometrisch bestimmte Höhen und Map-Matching Algorithmen, speziell für den urbanen Raum entwickelt. Das Herzstück des Systems bildet die eigens programmierte Auswertesoftware GRAHAM. Das Programm ist im Prinzip online-fähig und verarbeitet neben den GPS-Pseudostrecken und der barometrischen Höhe auch Richtungsinformationen, die aus einer digitalen Karte mit Hilfe eines eigens entwickelten Map-Matching-Algorithmus abgeleitet werden, gemeinsam in einem Kalman Filter. Um das System zu testen, wurde für ein repräsentatives Gebiet von Wien eine digitale Karte erstellt und einige Testfahrten durchgeführt, bei denen die Meßdaten eines GPS-Empfängers und eines Altimeters aufgezeichnet und anschließend mit den verschiedenen Auswerteverfahren, die von GRAHAM zur Verfügung gestellt werden, verarbeitet wurden. Die Verfahren umfassen neben dem bereits erwähnten Map-Matching-Modus die reine GPS-Auswertung, die epochenweise Berechnung von Positionen mittels altimetergestütztem GPS bei mindestens drei gemessenen Pseudostrecken und die gemeinsame Verarbeitung der GPS- und Barometerdaten in einem Kalman Filter, unabhängig von der Anzahl der beobachteten Satelliten. Der Vergleich der Ergebnisse zeigte, daß durch die Einbindung der barometrischen Höhe wesentlich mehr Positionen bestimmt werden konnten, als bei der reinen GPS-Auswertung. Der Einsatz des Kalman Filters bewirkte eine weitere Verbesserung der Ergebnisse und ermöglichte die Bestimmung von zusammenhängenden Fahrzeugtrajektorien. Mit Hilfe des Map-Matching-Verfahrens konnten schließlich aufgrund der abgeleiteten Richtungsinformationen wesentlich bessere Trajektorien bestimmt und die berechneten Positionen in das Straßennetzwerk eingepaßt werden.
Evaluierung einer digitalen photogrammetrischen Arbeitsstation
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1999. Begutachter: Univ.Prof. Dr. K. Kraus, Betreuer: Dr. R. Ecker.
Kurzfassung/Abstract
Ziel der vorliegenden Arbeit war es, das digitale photogrammetrische Auswertesystem PHODIS von Carl Zeiss, Oberkochen, hinsichtlich seiner Praxistauglichkeit und Leistungsfähigkeit bei der Bearbeitung photogrammetrischer Aufgabenstellungen zu beurteilen und den entsprechenden analytischen Verfahren gegenüberzustellen. Dazu werden im ersten Teil die grundlegenden Funktionen des Auswertesystems vorgestellt. Daran schließt eine detaillierte Darstellung des methodischen Hintergrundes und der jeweiligen Arbeitsabläufe der eingesetzten Verfahren zur inneren und relativen Orientierung, automatischen Aerotriangulation, automatischen Ableitung digitaler Geländemodelle und Stereoauswertung an. Der zweite Teil beschreibt zunächst das Vorgehen und die erreichten Ergebnisse bei der Bearbeitung praktischer Beispiele - zwei Aerotriangulationen, eine Ableitung eines Geländemodells und eine Stereoauswertung. Darauf aufbauend wird eine Bewertung der einzelnen Systemkomponenten gegeben. Es zeigt sich, daß sich durch die Verwendung der digitalen Arbeitsstation PHODIS mehrere Vorteile ergeben. So kann die gesamte Verarbeitungskette von der Bilddigitalisierung bis zur Orthophotoproduktion innerhalb dieses Systems durchgeführt werden, und die integrierten semi-automatischen und automatischen Verfahren beschleunigen die Messung bei vergleichbaren Genauigkeiten zur analytischen Auswertung. Demgegenüber steht der erhöhte Kontrollaufwand, wobei zu beachten ist, daß im Vergleich zu konventionellen Verfahren durch die automatischen etwa zehnmal so viele Messungen anfallen. Die Bearbeitung der praktischen Beispiele mit der digitalen photogrammetrischen Arbeitsstation PHODIS hat gezeigt, daß das Auswertesystem basierend auf digitalen Verfahren erfolgreich für photogrammetrische Standardaufgaben eingesetzt werden kann. Aus Sicht des Anwenders überwiegen dabei die Vorteile.
Ziel der vorliegenden Arbeit war es, das digitale photogrammetrische Auswertesystem PHODIS von Carl Zeiss, Oberkochen, hinsichtlich seiner Praxistauglichkeit und Leistungsfähigkeit bei der Bearbeitung photogrammetrischer Aufgabenstellungen zu beurteilen und den entsprechenden analytischen Verfahren gegenüberzustellen. Dazu werden im ersten Teil die grundlegenden Funktionen des Auswertesystems vorgestellt. Daran schließt eine detaillierte Darstellung des methodischen Hintergrundes und der jeweiligen Arbeitsabläufe der eingesetzten Verfahren zur inneren und relativen Orientierung, automatischen Aerotriangulation, automatischen Ableitung digitaler Geländemodelle und Stereoauswertung an. Der zweite Teil beschreibt zunächst das Vorgehen und die erreichten Ergebnisse bei der Bearbeitung praktischer Beispiele - zwei Aerotriangulationen, eine Ableitung eines Geländemodells und eine Stereoauswertung. Darauf aufbauend wird eine Bewertung der einzelnen Systemkomponenten gegeben. Es zeigt sich, daß sich durch die Verwendung der digitalen Arbeitsstation PHODIS mehrere Vorteile ergeben. So kann die gesamte Verarbeitungskette von der Bilddigitalisierung bis zur Orthophotoproduktion innerhalb dieses Systems durchgeführt werden, und die integrierten semi-automatischen und automatischen Verfahren beschleunigen die Messung bei vergleichbaren Genauigkeiten zur analytischen Auswertung. Demgegenüber steht der erhöhte Kontrollaufwand, wobei zu beachten ist, daß im Vergleich zu konventionellen Verfahren durch die automatischen etwa zehnmal so viele Messungen anfallen. Die Bearbeitung der praktischen Beispiele mit der digitalen photogrammetrischen Arbeitsstation PHODIS hat gezeigt, daß das Auswertesystem basierend auf digitalen Verfahren erfolgreich für photogrammetrische Standardaufgaben eingesetzt werden kann. Aus Sicht des Anwenders überwiegen dabei die Vorteile.
Kritisches Literaturstudium von geotechnischen und geodätischen Messungen bei Hangrutschungen
Institut für Angewandte Geodäsie, Abteilung für Ingenieurvermessung und Meßtechnik, TU-Graz, 1999. Begutachter und Betreuer: Univ.Prof. Dr. F. K. Brunner.
Kurzfassung/Abstract
In dieser Arbeit werden alle gängigen und praxiserprobten Methoden von geotechnischen und geodätischen Verfahren zur Bestimmung und Erkennung von Hangrutschungen, deren Geschwindigkeit und ihrer Entwicklung bis heute, einer näheren Betrachtung unterzogen. Weiters werden die Vor- und Nachteile der einzelnen Methoden analysiert. Darüber hinaus erfolgt eine detaillierte Beschreibung der verschiedenen Arten von Massenbewegungen, deren auslösenden Ursachen und Möglichkeiten der Vorhersage solcher Naturereignisse. Im letzten Kapitel werden einige Beispiele von Hangrutschungen, die jeweils eingesetzten Meßmethoden sowie die Möglichkeiten zu deren Sanierung behandelt.
In dieser Arbeit werden alle gängigen und praxiserprobten Methoden von geotechnischen und geodätischen Verfahren zur Bestimmung und Erkennung von Hangrutschungen, deren Geschwindigkeit und ihrer Entwicklung bis heute, einer näheren Betrachtung unterzogen. Weiters werden die Vor- und Nachteile der einzelnen Methoden analysiert. Darüber hinaus erfolgt eine detaillierte Beschreibung der verschiedenen Arten von Massenbewegungen, deren auslösenden Ursachen und Möglichkeiten der Vorhersage solcher Naturereignisse. Im letzten Kapitel werden einige Beispiele von Hangrutschungen, die jeweils eingesetzten Meßmethoden sowie die Möglichkeiten zu deren Sanierung behandelt.
Konzept eines Systems zur EDV-unterstützten Rekonstruktion antiker Baudenkmäler
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1999. Begutachter: Univ.Prof. Dr. P. Waldhäusl, Betreuer: Ass.Prof. Dr. H. Kager.
Kurzfassung/Abstract
Im Zusammenhang mit Bauforschung und Denkmalpflege auf archäologischen Ausgrabungsstätten tritt das Problem der Rekonstruktion eingestürzter Baudenkmäler aus ihren ausgegrabenen Fragmenten auf. Im Sinne der modernen Bauforschung soll eine solche Rekonstruktion möglichst steingerecht durchgeführt werden, also so, daß der einzelne Stein wieder an seinen ursprünglichen Ort im Gebäudeverband versetzt wird. Da die Erstellung einer solchen Rekonstruktion mit großem Aufwand verbunden ist, wurde angeregt, den Vorgang mit einem EDV-System zu simulieren. In dieser Arbeit wurde die Möglichkeit einer solchen Simulation untersucht. Es wurde festgestellt, welche Arbeitsschritte im Gesamtablauf der Rekonstruktion sich für eine Lösung mittels EDV eignen und ein Konzept für die Umsetzung dieser Arbeitsschritte in einem Programmsystem mit den Mitteln der räumlichen Datenverarbeitung erstellt. Dazu wurden die notwendigen Voraussetzungen und Eingangsdaten definiert, ein Datenmodell für die Organisation der vorkommenden Objekte in einer relationalen Datenbank festgelegt und Algorithmen angegeben, um durch sukzessive Negativauswahl aus den Eingangsdaten eine möglichst steingerechte Rekonstruktion des bearbeiteten Gebäudes herzustellen. Das Konzept wurde in einer Prototypversion implementiert und anhand kleiner Testdatensätze überprüft. Als Grundlage für diese Testdaten diente das Oktogon, ein hellenistischer Grabbau, dessen Baumaterial auf der Ausgrabung des Österreichischen Archäologischen Instituts in Ephesos gefunden und von der Firma AVT-Vermessung Tirol photogrammetrisch aufgenommen wurde. Eine abschließende Beurteilung ist zum gegenwärtigen Zeitpunkt noch nicht möglich, die Ergebnisse der Testläufe scheinen das Konzept jedoch zu bestätigen, immer unter der Voraussetzung, daß die Eingangsdaten für eine steingerechte Rekonstruktion geeignet sind.
Im Zusammenhang mit Bauforschung und Denkmalpflege auf archäologischen Ausgrabungsstätten tritt das Problem der Rekonstruktion eingestürzter Baudenkmäler aus ihren ausgegrabenen Fragmenten auf. Im Sinne der modernen Bauforschung soll eine solche Rekonstruktion möglichst steingerecht durchgeführt werden, also so, daß der einzelne Stein wieder an seinen ursprünglichen Ort im Gebäudeverband versetzt wird. Da die Erstellung einer solchen Rekonstruktion mit großem Aufwand verbunden ist, wurde angeregt, den Vorgang mit einem EDV-System zu simulieren. In dieser Arbeit wurde die Möglichkeit einer solchen Simulation untersucht. Es wurde festgestellt, welche Arbeitsschritte im Gesamtablauf der Rekonstruktion sich für eine Lösung mittels EDV eignen und ein Konzept für die Umsetzung dieser Arbeitsschritte in einem Programmsystem mit den Mitteln der räumlichen Datenverarbeitung erstellt. Dazu wurden die notwendigen Voraussetzungen und Eingangsdaten definiert, ein Datenmodell für die Organisation der vorkommenden Objekte in einer relationalen Datenbank festgelegt und Algorithmen angegeben, um durch sukzessive Negativauswahl aus den Eingangsdaten eine möglichst steingerechte Rekonstruktion des bearbeiteten Gebäudes herzustellen. Das Konzept wurde in einer Prototypversion implementiert und anhand kleiner Testdatensätze überprüft. Als Grundlage für diese Testdaten diente das Oktogon, ein hellenistischer Grabbau, dessen Baumaterial auf der Ausgrabung des Österreichischen Archäologischen Instituts in Ephesos gefunden und von der Firma AVT-Vermessung Tirol photogrammetrisch aufgenommen wurde. Eine abschließende Beurteilung ist zum gegenwärtigen Zeitpunkt noch nicht möglich, die Ergebnisse der Testläufe scheinen das Konzept jedoch zu bestätigen, immer unter der Voraussetzung, daß die Eingangsdaten für eine steingerechte Rekonstruktion geeignet sind.
Beobachtung von Frost und Tauzyklen über Nord Kanada unter Verwendung von ERS Scatterometer Daten
Institut für Photogrammetrie und Fernerkundung, TU-Wien, 1999. Begutachter: Univ.Prof. Dr. J. Jansa, Betreuer: Dipl.-Ing. W. Wagner.
Kurzfassung/Abstract
Die Beobachtung von Frost und Tauzyklen in den Regionen des Hohen Nordens stellt eine wichtige Grundlage zur Bestimmung des Zeitraumes in dem ein Planzenwachstum möglich ist, zur Bestimmung der Produktivität in der Tundra und den Borealen Wäldern, zur Abschätzung von Frostschäden an Pflanzen und zur Evaluierung von Änderungen im Wärmefluß zwischen Land und Atmosphäre dar. Frost resultiert im Mikrowellenfrequenzbereich in einem starken Abfall der Dielektrizitätskonstanten der Vegetation und des Bodens. Diese Änderung hat maßgebliche Auswirkungen auf das beobachtete Rückstreuverhalten. Aufgabe dieser Arbeit ist es die Möglichkeiten des ERS Scatterometers zur Beobachtung von Frost und Tauzyklen zu untersuchen. Der ERS Scatterometer ist ein Radarinstrument, das mit einer Frequenz von 5.3 GHz arbeitet und eine Auflösung von ungefähr 50 km besitzt. Die erwarteten Vorteile dieses Instruments sind:
Aufgrund der niedrigen Auflösung des Scatterometers können Frost und Tauzyklen global ohne großen Aufwand beobachtet werden
Die Beobachtung der Erde mit Mikrowellen kann unabhängig von der Tageszeit und von der Wolkenbedeckung erfolgen.
Die satellitenbasierte Methode erlaubt es, im Gegensatz zu Bodenbeobachtungen, Frost und Tauzyklen räumlich zu beobachten.
Als Untersuchungsgebiet wurde der Norden Kanadas gewählt, eines der am dünnsten besiedelten und am wenigsten untersuchten Gebiete der Welt. Das Gebiet erstreckt sich zwischen 85° und 141° westlicher Länge und 55° und 71° nördlicher Breite und überspannt eine Fläche von mehr als 3 630 000 km².
Vier Fragen werden mit speziellen Augenmerk behandelt: 1) Der wissenschaftliche und wirtschaftliche Zweck solcher Informationen; 2) Die Normalisierung von ERS Scatterometer Daten und der Zusammenhang der Scatterometer Daten mit ökoklimatischen Charakteristiken und den Vegetationstypen; 3) Dem Design eines Frost/Tau Klassifikationsalgorithmus und 4) der Validierung der Ergebnisse.
Die Beobachtung von Frost und Tauzyklen in den Regionen des Hohen Nordens stellt eine wichtige Grundlage zur Bestimmung des Zeitraumes in dem ein Planzenwachstum möglich ist, zur Bestimmung der Produktivität in der Tundra und den Borealen Wäldern, zur Abschätzung von Frostschäden an Pflanzen und zur Evaluierung von Änderungen im Wärmefluß zwischen Land und Atmosphäre dar. Frost resultiert im Mikrowellenfrequenzbereich in einem starken Abfall der Dielektrizitätskonstanten der Vegetation und des Bodens. Diese Änderung hat maßgebliche Auswirkungen auf das beobachtete Rückstreuverhalten. Aufgabe dieser Arbeit ist es die Möglichkeiten des ERS Scatterometers zur Beobachtung von Frost und Tauzyklen zu untersuchen. Der ERS Scatterometer ist ein Radarinstrument, das mit einer Frequenz von 5.3 GHz arbeitet und eine Auflösung von ungefähr 50 km besitzt. Die erwarteten Vorteile dieses Instruments sind:
Anwendung der objektorientierten Programmierung (OOP) in der Ratsterdatenverwaltung
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, TU Graz, 1999.
Kurzfassung/Abstract
Um die im Gesamtbereich der Photogrammetrie immer größer werdende digitale Datenmenge und die daraus abgeleiteten Produkte und Informationen einfach, rasch und genau verwalten zu können, wurde eine Verwaltungssoftware, die diese tägliche Arbeit erleichtert und gleichzeitig die Vielzahl der digitalen Produkte verbindet und koordiniert, erstellt. Realisiert wurde diese Software mit Hilfe der objektorientierten Programmierungstechnik (ANSI C++) sowie unter der Verwendung der Bildverarbeitungsbibliothek "Image Vision", auf einer Workstation der Firma SiliconGraphics (SGI). Ein digitales Hintergrundbild (Rasterbild der Stadt Graz) wurde als Basis für die graphische Darstellung der zu verwaltenden Rasterdaten ( digitale Luftbilder, digitale Orthophotos und digitale Geländemodelle ) ausgewählt und ins Landeskoordinatensystem orientiert. Sämtliche Informationen über die verwalteten Rasterdaten, wie z.B. Dateiname, geographischer Bereich des Dateninhaltes, Aufnahmemethode, Datum und Ort der Datenerfassung, Operateurparameter usw. werden mit einem Vorbereitungsprogramm zu verschiedenen Informationsdateien verknüpft. Anschließend werden oben genannte Rasterdaten und ihre Informationen, unter Verwendung der entsprechende Subroutine, auf dem Hintergrundbild graphische dargestellt und echtzeitig und interaktiv verwaltet. Wie die tägliche Anwendung dieses Programms zeigt, ist es möglich auch ohne umfangreiche und teure Datenbanksysteme, Informationen von digitalen Daten (Raster, Vektor und auch 3D-Daten) zu verwalten.
Um die im Gesamtbereich der Photogrammetrie immer größer werdende digitale Datenmenge und die daraus abgeleiteten Produkte und Informationen einfach, rasch und genau verwalten zu können, wurde eine Verwaltungssoftware, die diese tägliche Arbeit erleichtert und gleichzeitig die Vielzahl der digitalen Produkte verbindet und koordiniert, erstellt. Realisiert wurde diese Software mit Hilfe der objektorientierten Programmierungstechnik (ANSI C++) sowie unter der Verwendung der Bildverarbeitungsbibliothek "Image Vision", auf einer Workstation der Firma SiliconGraphics (SGI). Ein digitales Hintergrundbild (Rasterbild der Stadt Graz) wurde als Basis für die graphische Darstellung der zu verwaltenden Rasterdaten ( digitale Luftbilder, digitale Orthophotos und digitale Geländemodelle ) ausgewählt und ins Landeskoordinatensystem orientiert. Sämtliche Informationen über die verwalteten Rasterdaten, wie z.B. Dateiname, geographischer Bereich des Dateninhaltes, Aufnahmemethode, Datum und Ort der Datenerfassung, Operateurparameter usw. werden mit einem Vorbereitungsprogramm zu verschiedenen Informationsdateien verknüpft. Anschließend werden oben genannte Rasterdaten und ihre Informationen, unter Verwendung der entsprechende Subroutine, auf dem Hintergrundbild graphische dargestellt und echtzeitig und interaktiv verwaltet. Wie die tägliche Anwendung dieses Programms zeigt, ist es möglich auch ohne umfangreiche und teure Datenbanksysteme, Informationen von digitalen Daten (Raster, Vektor und auch 3D-Daten) zu verwalten.
Untersuchung eines Motorlasersystems zur automatisierten Tunnelvortriebssteuerung konventioneller Vortriebe
Institut für Geodäsie und Geophysik, Abt. für Angewandte Geodäsie und Ingenieurgeodäsie, TU-Wien, 1999. Begutachter: Univ.-Prof. Dr. H. Kahmen, Betreuer: Dipl.-Ing. K. Chmelina.
Kurzfassung/Abstract
Gemeinsam mit den rasanten Entwicklungen bei automatischen Messsystemen haben sich auch auf dem Gebiet der automatisierten Tunnelvortriebssteuerung im konventionellen Tunnelbau (NATM) in den letzten Jahren neue Möglichkeiten eröffnet. Konnten die dafür entwickelten Motorlasersysteme anfangs nur die Vortriebssteuerung mit Richtlasern ersetzen, so können diese heute auch die während des Vortriebs notwendigen Verschiebungsmessungen und Profilkontrollmessungen weitestgehend automatisch durchführen. Im Rahmen dieser Diplomarbeit wird ein solches Motorlasersystem der neuesten Generation untersucht. Ausgehend von der Beschreibung des Einsatzumfeldes und der Aufgaben der Geodäsie und Geotechnik im Tunnelbau werden der Systemaufbau und die Systemspezifikationen des Motorlasersystems beschrieben. Das Hauptaugenmerk dieser Arbeit liegt auf der Erfassung und Analyse der im Anwendungsumfeld liegenden Fehlerquellen und Störeinflüsse. Die Größenordnungen der Fehler werden einerseits theoretisch abgeleitet, andererseits in einer Reihe von Laborversuchen bestimmt. Neben einer Dauermessung, um die Langzeitstabilität und -genauigkeit des Systems beurteilen zu können, wird vor allem die automatische Zielerfassung des Tachymeters Leica TCA 1800 unter den verschiedensten äußeren Einflüssen (Verschmutzung, Befeuchtung von Prismen,...) in dem für das Motorlasersystem typischen Entfernungsbereich untersucht. Dafür werden zwei Arten von Prismen, Miniprismen und Folienprismen, verwendet. Schließlich wird das System einem Praxistest beim Wiener U-Bahnbau, einem Streckenabschnitt der Linie U3, unterzogen. Abschließend wird der Einsatz des Motorlasersystems mit den herkömmlichen Methoden hinsichtlich technischer als auch wirtschaftlicher Vor- und Nachteile verglichen. Die Versuche zeigen, dass Miniprismen gegenüber Folienprismen aufgrund der geringeren Beeinträchtigung ihres Reflexionsverhaltens durch äußere Störeinflüsse der Vorzug zu geben ist. Die Untersuchungen ergeben insgesamt, dass der Einsatz von Motorlasersystemen effizienteres und genaueres Arbeiten sowohl für die Vortriebsmannschaften als auch für den Vermessungsingenieur nachweislich ermöglicht.
Gemeinsam mit den rasanten Entwicklungen bei automatischen Messsystemen haben sich auch auf dem Gebiet der automatisierten Tunnelvortriebssteuerung im konventionellen Tunnelbau (NATM) in den letzten Jahren neue Möglichkeiten eröffnet. Konnten die dafür entwickelten Motorlasersysteme anfangs nur die Vortriebssteuerung mit Richtlasern ersetzen, so können diese heute auch die während des Vortriebs notwendigen Verschiebungsmessungen und Profilkontrollmessungen weitestgehend automatisch durchführen. Im Rahmen dieser Diplomarbeit wird ein solches Motorlasersystem der neuesten Generation untersucht. Ausgehend von der Beschreibung des Einsatzumfeldes und der Aufgaben der Geodäsie und Geotechnik im Tunnelbau werden der Systemaufbau und die Systemspezifikationen des Motorlasersystems beschrieben. Das Hauptaugenmerk dieser Arbeit liegt auf der Erfassung und Analyse der im Anwendungsumfeld liegenden Fehlerquellen und Störeinflüsse. Die Größenordnungen der Fehler werden einerseits theoretisch abgeleitet, andererseits in einer Reihe von Laborversuchen bestimmt. Neben einer Dauermessung, um die Langzeitstabilität und -genauigkeit des Systems beurteilen zu können, wird vor allem die automatische Zielerfassung des Tachymeters Leica TCA 1800 unter den verschiedensten äußeren Einflüssen (Verschmutzung, Befeuchtung von Prismen,...) in dem für das Motorlasersystem typischen Entfernungsbereich untersucht. Dafür werden zwei Arten von Prismen, Miniprismen und Folienprismen, verwendet. Schließlich wird das System einem Praxistest beim Wiener U-Bahnbau, einem Streckenabschnitt der Linie U3, unterzogen. Abschließend wird der Einsatz des Motorlasersystems mit den herkömmlichen Methoden hinsichtlich technischer als auch wirtschaftlicher Vor- und Nachteile verglichen. Die Versuche zeigen, dass Miniprismen gegenüber Folienprismen aufgrund der geringeren Beeinträchtigung ihres Reflexionsverhaltens durch äußere Störeinflüsse der Vorzug zu geben ist. Die Untersuchungen ergeben insgesamt, dass der Einsatz von Motorlasersystemen effizienteres und genaueres Arbeiten sowohl für die Vortriebsmannschaften als auch für den Vermessungsingenieur nachweislich ermöglicht.
Korrelation von multitemporalen und multisensoralen Bilddaten der Fernerkundung
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, TU Graz, 1999
Kurzfassung/Abstract
Die flugzeug- und satellitengestützte Fernerkundung der Erde stellt seit vielen Jahren eine Informationsquelle für kartographische, geodätische, geowissenschaftliche oder umweltbezogene Fragestellungen dar. Durch neue Sensoren mit verbesserten geometrischen und spektralen Eigenschaften sowie durch die Möglichkeit der automatischen bzw. teilautomatischen geometrischen und thematischen Bearbeitung multitemporaler und multisensoraler Datensätze werden die Einsatzmöglichkeiten von Fernerkundungsdaten stark erweitert. Die Qualität der Korrelationsverfahren von digitalen Fernerkundungsdaten ist für viele weiterführenden Auswertungen von großer Bedeutung. In der vorliegenden Arbeit werden die theoretischen Grundlagen sowie praktischen Anwendungen hinsichtlich Korrelationen von multitemporalen und multisensoralen Bilddaten präsentiert. Für die Korrelation wurden verschiedene Sensordaten mit unterschiedlicher Pixelauflösung in Bezug auf die erreichbare Höhengenauigkeit überprüft, wobei als Referenzdaten Höhenmodelle verwendet wurden. Weiters wurden neben den herkömmlichen Qualitätsparametern zusätzliche Kontrollmethoden für den Korrelationsprozeß erstellt und miteinander verknüpft.
Die flugzeug- und satellitengestützte Fernerkundung der Erde stellt seit vielen Jahren eine Informationsquelle für kartographische, geodätische, geowissenschaftliche oder umweltbezogene Fragestellungen dar. Durch neue Sensoren mit verbesserten geometrischen und spektralen Eigenschaften sowie durch die Möglichkeit der automatischen bzw. teilautomatischen geometrischen und thematischen Bearbeitung multitemporaler und multisensoraler Datensätze werden die Einsatzmöglichkeiten von Fernerkundungsdaten stark erweitert. Die Qualität der Korrelationsverfahren von digitalen Fernerkundungsdaten ist für viele weiterführenden Auswertungen von großer Bedeutung. In der vorliegenden Arbeit werden die theoretischen Grundlagen sowie praktischen Anwendungen hinsichtlich Korrelationen von multitemporalen und multisensoralen Bilddaten präsentiert. Für die Korrelation wurden verschiedene Sensordaten mit unterschiedlicher Pixelauflösung in Bezug auf die erreichbare Höhengenauigkeit überprüft, wobei als Referenzdaten Höhenmodelle verwendet wurden. Weiters wurden neben den herkömmlichen Qualitätsparametern zusätzliche Kontrollmethoden für den Korrelationsprozeß erstellt und miteinander verknüpft.
Analyse eines untertägigen Vortriebsnetzes am Beispiel des Semmering Basistunnel Pilotstollen
Institut für Geodäsie und Geophysik, Abt. für Angewandte Geodäsie und Ingenieurgeodäsie, TU-Wien, 1999. Begutachter: Univ.-Prof. Dr. H. Kahmen, Betreuer: Dipl.-Ing. K. Chmelina.
Kurzfassung/Abstract
Zur Verbesserung der Bahnverbindung zwischen Wien und der Steiermark wurde die Projektierung des 22,1 km langen Semmering Basistunnels zwischen Gloggnitz und Mürzzuschlag in Auftrag gegeben. 1994 wurde für dieses Großprojekt mit den Vortriebsarbeiten eines Sondierstollens begonnen, um Aufschlüsse über die geologische Situation in diesem Gebiet zu erhalten. Dieser im geplanten Endausbau 9,8 km lange Pilotstollen verläuft seitlich der Trasse des Basistunnels und hat zur Zeit dieser Diplomarbeit eine Länge von etwa 3,2 km. Das vorhandene untertägige Tunnelnetz ist durch mobile Wandkonsolen realisiert, die meist paarweise gegenüber angebracht sind. Der Abstand der Netzpunkte beträgt in den Geraden bis zu 200 m und im Kurvenbereich stellenweise nur 30 m und umfasst insgesamt 67 Netzpunkte. In der Arbeit werden zunächst verschiedene Varianten einer Netzsimulation gerechnet. Sie unterscheiden sich durch die Anzahl der Standpunkte, Messungen und Kreiselstützungen. Berechnet werden, ausgehend von einem einfachen Zick-Zack-Polygonzug bis hin zu einem dichten Netz mit sieben Visuren pro Standpunkt, vier Varianten mit jeweils keiner, zwei, vier, fünf und zwölf Kreiselstützungen. Diese Netzvarianten werden hinsichtlich Genauigkeit, Zuverlässigkeit und Wirtschaftlichkeit miteinander verglichen. Dabei zeigt sich, dass ein Zick-Zack-Polygonzug mit zusätzlichen Messungen pro Standpunkt zum jeweils letzten und nächsten Punkt der Kurvenaußenseite und vier regelmäßig verteilte Kreiselstützungen die heute üblichen Anforderungen an Tunnelnetze optimal erfüllt. Im Sommer 1998 wurde im Rahmen der Diplomarbeit in einer einwöchigen Messkampagne im Pilotstollen eine komplette Neuvermessung des Netzes unter Verwendung eines Tachymeters vom Typ Leica TCA 1800 durchgeführt. Dabei wurde im Zuge der Satzmessungen zur Beschleunigung der Arbeiten die automatische Zielerkennungsfunktion des Instruments ausgenutzt und praktisch erprobt. Zu einem späteren Zeitpunkt erfolgten im vorderen und hinteren Bereich des Stollens zusätzlich zwei Azimutmessungen mit dem Kreiselinstrument Gyromat 2000. Die Auswertung aller Messdaten bis hin zum Netzausgleich wird mit dem Programm PANDA vorgenommen. Mit dem Ausgleichsergebnis wird das Netz auf Schwachstellen untersucht und die Probleme, die bei Messung und Berechnung auftreten, dargestellt. Speziell werden die Ausgleichsergebnisse mit und ohne Berücksichtigung der Kreiseldaten miteinander verglichen. Ein Vergleich mit der A-priori Netzsimulation ergibt im wesentlichen eine gute Übereinstimmung mit dem tatsächlichen Netzausgleich. Den Abschluss der Arbeit bildet eine Untersuchung der Horizontalrefraktion unter der Annahme eines einfachen Refraktionsmodells.
Zur Verbesserung der Bahnverbindung zwischen Wien und der Steiermark wurde die Projektierung des 22,1 km langen Semmering Basistunnels zwischen Gloggnitz und Mürzzuschlag in Auftrag gegeben. 1994 wurde für dieses Großprojekt mit den Vortriebsarbeiten eines Sondierstollens begonnen, um Aufschlüsse über die geologische Situation in diesem Gebiet zu erhalten. Dieser im geplanten Endausbau 9,8 km lange Pilotstollen verläuft seitlich der Trasse des Basistunnels und hat zur Zeit dieser Diplomarbeit eine Länge von etwa 3,2 km. Das vorhandene untertägige Tunnelnetz ist durch mobile Wandkonsolen realisiert, die meist paarweise gegenüber angebracht sind. Der Abstand der Netzpunkte beträgt in den Geraden bis zu 200 m und im Kurvenbereich stellenweise nur 30 m und umfasst insgesamt 67 Netzpunkte. In der Arbeit werden zunächst verschiedene Varianten einer Netzsimulation gerechnet. Sie unterscheiden sich durch die Anzahl der Standpunkte, Messungen und Kreiselstützungen. Berechnet werden, ausgehend von einem einfachen Zick-Zack-Polygonzug bis hin zu einem dichten Netz mit sieben Visuren pro Standpunkt, vier Varianten mit jeweils keiner, zwei, vier, fünf und zwölf Kreiselstützungen. Diese Netzvarianten werden hinsichtlich Genauigkeit, Zuverlässigkeit und Wirtschaftlichkeit miteinander verglichen. Dabei zeigt sich, dass ein Zick-Zack-Polygonzug mit zusätzlichen Messungen pro Standpunkt zum jeweils letzten und nächsten Punkt der Kurvenaußenseite und vier regelmäßig verteilte Kreiselstützungen die heute üblichen Anforderungen an Tunnelnetze optimal erfüllt. Im Sommer 1998 wurde im Rahmen der Diplomarbeit in einer einwöchigen Messkampagne im Pilotstollen eine komplette Neuvermessung des Netzes unter Verwendung eines Tachymeters vom Typ Leica TCA 1800 durchgeführt. Dabei wurde im Zuge der Satzmessungen zur Beschleunigung der Arbeiten die automatische Zielerkennungsfunktion des Instruments ausgenutzt und praktisch erprobt. Zu einem späteren Zeitpunkt erfolgten im vorderen und hinteren Bereich des Stollens zusätzlich zwei Azimutmessungen mit dem Kreiselinstrument Gyromat 2000. Die Auswertung aller Messdaten bis hin zum Netzausgleich wird mit dem Programm PANDA vorgenommen. Mit dem Ausgleichsergebnis wird das Netz auf Schwachstellen untersucht und die Probleme, die bei Messung und Berechnung auftreten, dargestellt. Speziell werden die Ausgleichsergebnisse mit und ohne Berücksichtigung der Kreiseldaten miteinander verglichen. Ein Vergleich mit der A-priori Netzsimulation ergibt im wesentlichen eine gute Übereinstimmung mit dem tatsächlichen Netzausgleich. Den Abschluss der Arbeit bildet eine Untersuchung der Horizontalrefraktion unter der Annahme eines einfachen Refraktionsmodells.
Einsatz eines digitalen Geländemodells für Hochwassersimulationen
Institut für Photogrammetrie und Fernerkundung, TU-Wien, 1999. Begutachter: Univ.Prof. Dr. K. Kraus, Betreuerin: Dipl.-Ing. Ch. Ries.
Kurzfassung/Abstract
Die Bedrohung durch Naturkatastrophen wurde in den letzten Jahrzehnten zu einem ständigen Wegbegleiter des Menschen. Einerseits geht man durch die dichtere Besiedlung bewußt das Risiko ein, immer näher an Gefahrenzonen heranzurücken, in denen es keinen natürlichen Schutz gibt. Andererseits werden durch Eingriffe in die Natur (Rodungen, Flußregulierungen, ...) diese Risiken noch vergrößert. Oftmals sind daher die Ingenieurwissenschaften gefordert, Lösungen anzubieten, die die Sicherheit der Bewohner gewährleisten sollen. Das Spektrum reicht hier von Plandarstellungen (Bebauungspläne, Gefahrenzonenpläne, ...) bis hin zu technischen Schutzbauten (Lawinenverbauung, Dämme, ...). In dieser Diplomarbeit wird im Zuge der Renaturisierung des Pulkautales eine Möglichkeit vorgestellt, wie man ein digitales Geländemodell (DGM) für eine Hochwassersimulation einsetzen kann. Im wesentlichen wurde dabei eine Schnittstelle geschaffen, die einen kontrollierten und schnellen Datenaustausch zwischen den Programmen der Hydrologen und der Photogrammetrie ermöglicht. Der entscheidende Vorteil zu ähnlichen Projekten, die auf einer terrestrischen Datengrundlage basieren, besteht darin, daß der ausführende Hydrologe anhand des Höhenschichtenplanes und des digitalen Orthophotos die Geländestruktur sehr genau interpretieren kann. Dies bedeutet eine gezielte Auswahl der Profile, und somit eine Elimination von groben Modellfehlern für die Simulationsberechnung. Das digitale Orthophoto wurde sowohl als Plausibilitätskontrolle bei der Berechnung des Höhenmodells, als auch bei der Visualisierung des Hochwassers eingesetzt. Weiters wurden anhand dieses Projektes die Genauigkeit und die Kosten der Photogrammetrie denen der terrestrischen Profilmessung gegenübergestellt.
Die Bedrohung durch Naturkatastrophen wurde in den letzten Jahrzehnten zu einem ständigen Wegbegleiter des Menschen. Einerseits geht man durch die dichtere Besiedlung bewußt das Risiko ein, immer näher an Gefahrenzonen heranzurücken, in denen es keinen natürlichen Schutz gibt. Andererseits werden durch Eingriffe in die Natur (Rodungen, Flußregulierungen, ...) diese Risiken noch vergrößert. Oftmals sind daher die Ingenieurwissenschaften gefordert, Lösungen anzubieten, die die Sicherheit der Bewohner gewährleisten sollen. Das Spektrum reicht hier von Plandarstellungen (Bebauungspläne, Gefahrenzonenpläne, ...) bis hin zu technischen Schutzbauten (Lawinenverbauung, Dämme, ...). In dieser Diplomarbeit wird im Zuge der Renaturisierung des Pulkautales eine Möglichkeit vorgestellt, wie man ein digitales Geländemodell (DGM) für eine Hochwassersimulation einsetzen kann. Im wesentlichen wurde dabei eine Schnittstelle geschaffen, die einen kontrollierten und schnellen Datenaustausch zwischen den Programmen der Hydrologen und der Photogrammetrie ermöglicht. Der entscheidende Vorteil zu ähnlichen Projekten, die auf einer terrestrischen Datengrundlage basieren, besteht darin, daß der ausführende Hydrologe anhand des Höhenschichtenplanes und des digitalen Orthophotos die Geländestruktur sehr genau interpretieren kann. Dies bedeutet eine gezielte Auswahl der Profile, und somit eine Elimination von groben Modellfehlern für die Simulationsberechnung. Das digitale Orthophoto wurde sowohl als Plausibilitätskontrolle bei der Berechnung des Höhenmodells, als auch bei der Visualisierung des Hochwassers eingesetzt. Weiters wurden anhand dieses Projektes die Genauigkeit und die Kosten der Photogrammetrie denen der terrestrischen Profilmessung gegenübergestellt.
Nutzung von VRML für Informationssysteme basierend auf 3D-Photomodellen
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1999. Begutachter: Univ.Prof. Dr. K. Kraus, Betreuer: Dipl.-Ing. L. Dorffner, Dr. G. Forkert.
Kurzfassung/Abstract
Am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien werden seit 1996 dreidimensionale Photomodelle als Ergebnis photogrammetrischer Auswertungen erzeugt. Verwendet wird dafür die Beschreibungssprache VRML 1.0, die für die Visualisierung von 3D-Objekten im Internet entwickelt wurde. Der Benutzer kann mit Hilfe einer entsprechenden Software (VRML-Browser), die von vielen Firmen gratis zur Verfügung gestellt wird, das Objekt betrachten und sich völlig frei durch das statische Modell bewegen. Ebenfalls realisiert ist die Verknüpfung mit Web-Seiten, die zusätzliche Informationen enthalten können und einen Zugriff auf das Photomodell über das Internet ermöglichen. VRML 1.0 wurde in Folge um etliche Funktionen erweitert, die auch dynamische Szenen (Animationen, Interaktion) zulassen. 1997 wurde VRML 2.0 (VRML 97) zum neuen Standard. Um die Funktionalität und Attraktivität des Produkts "Photomodell" zu steigern, sollten im Zuge dieser Diplomarbeit die Möglichkeiten dieser neuen Sprachversion, und auch eng verbundener Sprachen wie Java, JavaScript und HTML, untersucht werden. Für die Diplomarbeit wurden folgende Ziele gesteckt und unter Verwendung von Netscape 4.0 und dem VRML-Browser Cosmo Player 2.1 realisiert:
Gestaltung der Umgebung des Photomodells (Hintergrund, Beleuchtung,...).
Erzeugung von automatischen Rundflügen (Touren) durch das Photomodell.
Möglichkeit direkt im VRML-Browser Koordinaten am Objekt messen zu können.
Untersuchung der Schnittstelle EAI, die eine engere Verbindung zwischen Web-Seiten und VRML-Szenen ermöglicht.
Aufdeckung und Behebung von bestehenden Problemen bei der Erzeugung des Photomodells mit VRML 1.0.
Die Ergebnisse dieser Arbeit wurden in Zusammenarbeit mit der Ingenieurgemeinschaft Polly-Pazourek-Burtscher bereits an realen Projekten getestet und eingesetzt. Die Erweiterungen des rein statischen Photomodells zum Informationssystem sind sowohl für technische Anwender, als auch für den Laien von Interesse. VRML bietet die neue Möglichkeit, photogrammetrische Auswertungen als dreidimensionales Photomodell anzubieten, um dem Anwender ein echtes 3D-Erlebnis und gleichzeitig Zugriff auf Zusatzinformationen zu ermöglichen.
Am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien werden seit 1996 dreidimensionale Photomodelle als Ergebnis photogrammetrischer Auswertungen erzeugt. Verwendet wird dafür die Beschreibungssprache VRML 1.0, die für die Visualisierung von 3D-Objekten im Internet entwickelt wurde. Der Benutzer kann mit Hilfe einer entsprechenden Software (VRML-Browser), die von vielen Firmen gratis zur Verfügung gestellt wird, das Objekt betrachten und sich völlig frei durch das statische Modell bewegen. Ebenfalls realisiert ist die Verknüpfung mit Web-Seiten, die zusätzliche Informationen enthalten können und einen Zugriff auf das Photomodell über das Internet ermöglichen. VRML 1.0 wurde in Folge um etliche Funktionen erweitert, die auch dynamische Szenen (Animationen, Interaktion) zulassen. 1997 wurde VRML 2.0 (VRML 97) zum neuen Standard. Um die Funktionalität und Attraktivität des Produkts "Photomodell" zu steigern, sollten im Zuge dieser Diplomarbeit die Möglichkeiten dieser neuen Sprachversion, und auch eng verbundener Sprachen wie Java, JavaScript und HTML, untersucht werden. Für die Diplomarbeit wurden folgende Ziele gesteckt und unter Verwendung von Netscape 4.0 und dem VRML-Browser Cosmo Player 2.1 realisiert: