- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 1998
Abschlussarbeiten 1998
Ein Beitrag zum geometrisch korrekten digitalen Orthophoto unter Berücksichtigung von allgemeinen 3D-Objekten und die Realisierung in einem Softwarepaket
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.Prof. Dr.-Ing. K. Kraus, Univ.Doz. Dr. J. Jansa, Rigorosum am 31. Juli 1997
Kurzfassung/Abstract
Digitale Orthophotos in großen und mittleren Maßstäben gewinnen immer mehr an Bedeutung (z.B. als Datengrundlage in einem Geo-lnformationssystem). Bisher sind jedoch in digitalen Orthophotos allgemeine 3D-Objekte (Gebäude, Brücken, etc.) geometrisch falsch abgebildet, weil konventionelle Orthophotoalgorithmen auf 2.5D-Geländemodellen (DTM: Digital Terrain Model) basieren, mit denen 3D-Objekte nur unzureichend beschrieben und keine Sichtbarkeiten berücksichtigt werden können. Dadurch kommt es zu Versetzungen oder Doppelabbildungen von 3D-Objekten im Orthophoto. In großen bis mittleren Maßstäben sind diese Fehler häufig nicht mehr tolerierbar und es besteht ein großer Bedarf an sogenannten True-Orthophotos, in denen auch allgemeine 3D- Objekte korrekt abgebildet sind. Grundvoraussetzung für die Generierung eines True- Orthophotos ist, daß ein 3D-Gebäudemodell (DBM: Digital Building Model) vorhanden ist. Prinzipiell kann man drei Fälle (a, b, c) bei der Erzeugung eines True-Orthophotos unterscheiden: Bei den ersten zwei Fällen (a, b) wird das True- Orthophoto in zwei Schritten erzeugt:
Geländeorthophoto (Orthophoto, das nur das Gelände enthält) und Gebäudeorthophoto (Orthophoto, in dem alle 3D- Objekte korrekt abgebildet sind) werden getrennt voneinander mit Hilfe des 2.5D-Geländemodells bzw. des 3D-Gebäudemodells generiert. Das Geländeorthophoto kann mit herkömmlichen Orthophotoalgorithmen erzeugt werden, wenn im umzubildenden Luftbild mit Hilfe des DBM alle Gebäude ,,wegmaskiert" wurden.
Geländeorthophoto und Gebäudeorthophoto werden miteinander verschmolzen, wodurch schließlich das True-Orthophoto entsteht.
Voraussetzung für diese Vorgangsweise ist, daß keine Verdeckungen von 3D-Objekten durch das Gelände vorkommen.
Die ersten beiden Fälle unterscheiden sich darin, ob bei der Erzeugung des Gebäudeorthophotos eine Sichtbarkeitsanalyse innerhalb des DBM mit Hilfe eines ,,hidden-surface"-Algorithmus durchgeführt wird. Eine Sichtbarkeitsanalyse innerhalb des DBM kann entfallen, wenn im Luftbild kein Gebäude ein anderes verdeckt, z.B. bei einzeln stehenden und sehr einfachen Häusern (Fall a). Wenn sich jedoch 3D-Objekte gegenseitig verdecken (z.B. in Stadtgebieten), so muß eine Sichtbarkeitsanalyse innerhalb des DBM durchgeführt werden (Fall b).
Im dritten Fall (c) sind DTM und DBM gemeinsam in einer Datenbank gespeichert. Das True-Orthophoto entsteht in einem Schritt, wobei eine umfassende Sichtbarkeitsanalyse durchgeführt wird. Dieser Fall ist bei sehr komplexem Gelände anzuwenden, wenn nicht nur Verdeckungen innerhalb des DBM, sondern auch von 3D-Objekten durch das Gelände zu erwarten sind.
Im Rahmen dieser Dissertation wurde ein Softwarepaket namens TORPEDO (Three dimensional Object Resource Package for Enhancing Digital Orthophotos) entwickelt, das in Verbindung mit einem herkömmlichen Orthophotoprogramm (zur getrennten Erzeugung des Geländeorthophotos) in der Lage ist, diese drei Fälle zu bearbeiten und True-Orthophotos zu generieren.
TORPEDO verwendet ein DBM, in dem 3D-Objekte in Form von Koordinaten- und Topologielisten beschrieben werden ("Boundary Representation"). Das DBM wird in TOPDB (einem relationalen Datenbankverwaltungssystem mit topologischen Elementen) gespeichert. Für die Sichtbarkeitsanalyse ist eine Erweiterung des Z-Buffer- Algorithmus in Form des ZI-Buffers (Z=Distanz vom Projektionszentrum zum Objektpunkt, und I=Flächenidentität eines Pixels) implementiert. Ein aus einem einzigen Luftbild erzeugtes True- Orthophoto weist noch Lücken in den sichttoten Bereichen der 3D- Objekte auf. Diese Lücken können aus überlappenden True- Orthophotos, die aus benachbarten Bildern entstehen, ergänzt werden.
Die in TORPEDO realisierte Lösung zur Erzeugung von True-Orthophotos ist allgemein gültig und auch in der Nahbereichsphotogrammetrie (z.B. bei Fassadenaufnahmen) anwendbar. TORPEDO wurde mit kleinen reellen Datensätzen (Luftbildern und Fassadenaufnahmen) mit Erfolg getestet.
Digitale Orthophotos in großen und mittleren Maßstäben gewinnen immer mehr an Bedeutung (z.B. als Datengrundlage in einem Geo-lnformationssystem). Bisher sind jedoch in digitalen Orthophotos allgemeine 3D-Objekte (Gebäude, Brücken, etc.) geometrisch falsch abgebildet, weil konventionelle Orthophotoalgorithmen auf 2.5D-Geländemodellen (DTM: Digital Terrain Model) basieren, mit denen 3D-Objekte nur unzureichend beschrieben und keine Sichtbarkeiten berücksichtigt werden können. Dadurch kommt es zu Versetzungen oder Doppelabbildungen von 3D-Objekten im Orthophoto. In großen bis mittleren Maßstäben sind diese Fehler häufig nicht mehr tolerierbar und es besteht ein großer Bedarf an sogenannten True-Orthophotos, in denen auch allgemeine 3D- Objekte korrekt abgebildet sind. Grundvoraussetzung für die Generierung eines True- Orthophotos ist, daß ein 3D-Gebäudemodell (DBM: Digital Building Model) vorhanden ist. Prinzipiell kann man drei Fälle (a, b, c) bei der Erzeugung eines True-Orthophotos unterscheiden: Bei den ersten zwei Fällen (a, b) wird das True- Orthophoto in zwei Schritten erzeugt:
Die strukturierte Datenerfassung und das Visualisierungspotential des digitalen Bauwerkmodells - Der Palast von Santa Rosa Xtampak
Institut für Angewandte Geodäsie, TU Graz, 1997. Begutachter: o.Univ.-Prof. Dr. G. Brandstätter, Ass. Prof. Univ.Doz. Dr. A. Hohmann (Institut für Städtebau).
Kurzfassung/Abstract
Die Schwierigkeiten in der Aufnahme und digitalen 3D- Präsentation komplexer, teilweise verfallener Bauwerke liegen in der Bestimmung, Abgrenzung und Strukturierung einzelner Architekturelemente.
Die entwickelte Methodik der Bauwerksdokumentation ermöglicht es einerseits, ein Bauwerk in hierarchisch strukturierter Form über architektonische Elemente eindeutig zu beschreiben und andererseits dieses Bauwerk im Computer als digitales dreidimensionales Flächenmodell, gebildet aus den Grenzflächen der Masse- Elemente, zu rekonstruieren.
Dieses digitale Bauwerksmodell beinhaltet aber nicht nur die architektonischen Informationen, sondern auch alle weiteren für die Dokumentation eines Objektes bedeutsamen Informationen wie den Verweis auf bestehende Pläne, Photographien oder Bauwerke mit vergleichbaren Stilelementen.
Durch die Umsetzung der hierarchischen Architekturelementestruktur im Computermodell können elementespezifische Abfragen in beliebig komplexer Form getätigt werden.
So lassen sich etwa Abmaße und Ausrichtungen von Bauwerksteilen einfach und rasch selektieren und können zur Bauwerksanalyse direkt an statistische Auswerteprogramme weitergeleitet oder in graphischer Form ausgedruckt werden.
Die vorliegende Strukturierung der Modelldaten ermöglicht aber auch deren Einbindung in eine leistungsfähige Multimediaumgebung. So lieferte EXPLORE, ein Animationssystem des high- end Bereiches, hochqualitativ ,,gerenderte" Standbilder des Modells ebenso wie eine realitätsnahe Simulation eines Spazierganges durch das virtuelle Bauwerk.
Als Fallbeispiel für die praktische Verifizierung diente ein Großbauwerk der Maya-Kultur in Mexiko, der Palast von Santa Rosa Xtampak. Seine komplexe Architektur und die zum Teil verfallenen Fassaden gelten als repräsentativ für die Problematik der Bauwerksdokumentation in diesem Kulturraum.
Nur durch die vollständige Bearbeitung des Gesamtobjektes mit all seinen Details konnte das Potential und die Effizienz der entwickelten Methodik in den verschiedenen Bearbeitungsstufen beurteilt werden.
Die Schwierigkeiten in der Aufnahme und digitalen 3D- Präsentation komplexer, teilweise verfallener Bauwerke liegen in der Bestimmung, Abgrenzung und Strukturierung einzelner Architekturelemente.
Die entwickelte Methodik der Bauwerksdokumentation ermöglicht es einerseits, ein Bauwerk in hierarchisch strukturierter Form über architektonische Elemente eindeutig zu beschreiben und andererseits dieses Bauwerk im Computer als digitales dreidimensionales Flächenmodell, gebildet aus den Grenzflächen der Masse- Elemente, zu rekonstruieren.
Dieses digitale Bauwerksmodell beinhaltet aber nicht nur die architektonischen Informationen, sondern auch alle weiteren für die Dokumentation eines Objektes bedeutsamen Informationen wie den Verweis auf bestehende Pläne, Photographien oder Bauwerke mit vergleichbaren Stilelementen.
Durch die Umsetzung der hierarchischen Architekturelementestruktur im Computermodell können elementespezifische Abfragen in beliebig komplexer Form getätigt werden.
So lassen sich etwa Abmaße und Ausrichtungen von Bauwerksteilen einfach und rasch selektieren und können zur Bauwerksanalyse direkt an statistische Auswerteprogramme weitergeleitet oder in graphischer Form ausgedruckt werden.
Die vorliegende Strukturierung der Modelldaten ermöglicht aber auch deren Einbindung in eine leistungsfähige Multimediaumgebung. So lieferte EXPLORE, ein Animationssystem des high- end Bereiches, hochqualitativ ,,gerenderte" Standbilder des Modells ebenso wie eine realitätsnahe Simulation eines Spazierganges durch das virtuelle Bauwerk.
Als Fallbeispiel für die praktische Verifizierung diente ein Großbauwerk der Maya-Kultur in Mexiko, der Palast von Santa Rosa Xtampak. Seine komplexe Architektur und die zum Teil verfallenen Fassaden gelten als repräsentativ für die Problematik der Bauwerksdokumentation in diesem Kulturraum.
Nur durch die vollständige Bearbeitung des Gesamtobjektes mit all seinen Details konnte das Potential und die Effizienz der entwickelten Methodik in den verschiedenen Bearbeitungsstufen beurteilt werden.
Soil Moisture Retrieval from ERS Scatterometer Data (Erfassung des Bodenwassergehalts anhand von ERS Scatterometer Aufnahmen)
Institut für Photogrammetrie und Fernerkundung, TU-Wien, 1998. Begutachter: Univ.Prof. Dr. Karl Kraus, Institut für Photogrammetrie und Fernerkundung, TU-Wien und Univ.Prof. Dr. Helmut Rott, Institut für Meteorologie and Geophysik, Universität Innsbruck.
Kurzfassung/Abstract
Obwohl das im Boden gespeicherte Wasser nur zirka 0.005 % der globalen Wasserresourcen ausmacht, ist es eine wichtige Komponente des hydrologischen Kreislaufes. Der Bodenwassergehalt beinflußt das Wettergeschehen, den Wasserabfluß, die landwirtschaftliche Produktion, die Art und Funktionsweise von Ecosystemen, und ist ein kritisches Element in Klimastudien. Derzeit erlauben nur bodengestütze Methoden eine verläßliche Messung der Bodenfeuchte. Sie sind allerdings relativ teuer und sind oft aufgrund der hohen kleinräumigen Variabilität der Bodenfeuchte nicht repräsentativ für die umliegenden Gebiete. Die Fernerkundung könnte diese Probleme lösen da sie räumliche Messungen liefert, und weil Karten von größeren Gebieten relativ kostengünstig erstellt werden könnten. Das Problem ist allerdings, daß der Bodenwassergehalt nur ein Faktor von vielen ist, der das Fernerkundungssignal beeinflußt.
Das Ziel dieser Arbeit war es, eine Methode zur Bestimmung des Bodenwassergehaltes basierend auf ERS Scatterometer Daten zu entwickeln. Das ERS Scatterometer ist ein C-Band Radar mit einer räumlichen Auflösung von 50 km, das an Bord der Europäischen Fernerkundungssatelliten ERS-1 and ERS-2 geflogen wurde und wird. Es mißt den Rückstreukoeffizienten, der über Landflächen von der Vegetation, der Bodenrauhigkeit, der Bodenfeuchte, und dem Einfallswinkel beeinflußt wird. Um den Bodenwassergehalt zu bestimmen, müssen die anderen Einflußgrößen berücksichtigt werden. Wie das erzielt werden kann ist in dieser Dissertation beschrieben.
Die erhaltenen Bodenfeuchtigkeitswerte sind ein relatives Maß des Wassergehaltes in den obersten 0.5 - 2 cm des Bodens. In den meisten Anwendungen will man allerdings den Wassergehalt im Bodenprofil kennen, und daher wurde eine Methode zur Abschätzung dieser Größe anhand von ERS Scatterometer und Bodendaten entwickelt. Eine Validierung der Methode anhand von umfangreichen Bodenfeuchtigkeitsmessungen aus der Ukraine zeigt, daß der Wassergehalt im ersten Meter des Bodens mit einem Fehler von 4.9 % volumetrische Bodenfeuchte bestimmt werden kann. Bodenfeuchtigkeitskarten wurden für eine Anzahl von Gebieten (Mali, Iberische Halbinsel, Illinois, England und Wales) mit unterschiedlichen klimatischen Bedingungen erstellt. Eine qualitative Analyse dieser Karten deuted auf eine gute Qualität für unterschiedlichste klimatische und vegetative Verhältnisse hin.
Obwohl das im Boden gespeicherte Wasser nur zirka 0.005 % der globalen Wasserresourcen ausmacht, ist es eine wichtige Komponente des hydrologischen Kreislaufes. Der Bodenwassergehalt beinflußt das Wettergeschehen, den Wasserabfluß, die landwirtschaftliche Produktion, die Art und Funktionsweise von Ecosystemen, und ist ein kritisches Element in Klimastudien. Derzeit erlauben nur bodengestütze Methoden eine verläßliche Messung der Bodenfeuchte. Sie sind allerdings relativ teuer und sind oft aufgrund der hohen kleinräumigen Variabilität der Bodenfeuchte nicht repräsentativ für die umliegenden Gebiete. Die Fernerkundung könnte diese Probleme lösen da sie räumliche Messungen liefert, und weil Karten von größeren Gebieten relativ kostengünstig erstellt werden könnten. Das Problem ist allerdings, daß der Bodenwassergehalt nur ein Faktor von vielen ist, der das Fernerkundungssignal beeinflußt.
Das Ziel dieser Arbeit war es, eine Methode zur Bestimmung des Bodenwassergehaltes basierend auf ERS Scatterometer Daten zu entwickeln. Das ERS Scatterometer ist ein C-Band Radar mit einer räumlichen Auflösung von 50 km, das an Bord der Europäischen Fernerkundungssatelliten ERS-1 and ERS-2 geflogen wurde und wird. Es mißt den Rückstreukoeffizienten, der über Landflächen von der Vegetation, der Bodenrauhigkeit, der Bodenfeuchte, und dem Einfallswinkel beeinflußt wird. Um den Bodenwassergehalt zu bestimmen, müssen die anderen Einflußgrößen berücksichtigt werden. Wie das erzielt werden kann ist in dieser Dissertation beschrieben.
Die erhaltenen Bodenfeuchtigkeitswerte sind ein relatives Maß des Wassergehaltes in den obersten 0.5 - 2 cm des Bodens. In den meisten Anwendungen will man allerdings den Wassergehalt im Bodenprofil kennen, und daher wurde eine Methode zur Abschätzung dieser Größe anhand von ERS Scatterometer und Bodendaten entwickelt. Eine Validierung der Methode anhand von umfangreichen Bodenfeuchtigkeitsmessungen aus der Ukraine zeigt, daß der Wassergehalt im ersten Meter des Bodens mit einem Fehler von 4.9 % volumetrische Bodenfeuchte bestimmt werden kann. Bodenfeuchtigkeitskarten wurden für eine Anzahl von Gebieten (Mali, Iberische Halbinsel, Illinois, England und Wales) mit unterschiedlichen klimatischen Bedingungen erstellt. Eine qualitative Analyse dieser Karten deuted auf eine gute Qualität für unterschiedlichste klimatische und vegetative Verhältnisse hin.
Anwendung der Radontransformation bei Satellitenaltimetrie
Abteilung für Mathematische Geodäsie und Geoinformatik, TU-Graz, 1998. Begutachter: Univ.Prof. Dr. H. Sünkel
Kurzfassung/Abstract
Die Radontransformation dient der Detektierung richtungsabhängiger Strukturen eines Feldes. Für ein Testgebiet im Mittelmeer wurde die "sea surface height" (SSH) extrahiert, die durch die Abweichung der Meeresoberfläche von einem geozentrischen Bezugsellipsoid definiert ist. Diese Daten stehen in sehr hoher Dichte entlang der Flugbahn zur Verfügung. Der Abstand zwischen den einzelnen Flugbahnen hingegen ist sehr groß. Es soll untersucht werden, ob anisotrope Strukturen in den SSH-Altimetertracks auf ebensolche am Ozeanboden zurückgeführt werden können. Zum Vergleich wurde die Bathymetrie des betreffenden Testgebietes und das daraus abgeleitete regionale Potentialfeld herangezogen.
Die Radontransformation dient der Detektierung richtungsabhängiger Strukturen eines Feldes. Für ein Testgebiet im Mittelmeer wurde die "sea surface height" (SSH) extrahiert, die durch die Abweichung der Meeresoberfläche von einem geozentrischen Bezugsellipsoid definiert ist. Diese Daten stehen in sehr hoher Dichte entlang der Flugbahn zur Verfügung. Der Abstand zwischen den einzelnen Flugbahnen hingegen ist sehr groß. Es soll untersucht werden, ob anisotrope Strukturen in den SSH-Altimetertracks auf ebensolche am Ozeanboden zurückgeführt werden können. Zum Vergleich wurde die Bathymetrie des betreffenden Testgebietes und das daraus abgeleitete regionale Potentialfeld herangezogen.
Satellitenbahnprädiktion unter Einbeziehung aktueller Laserdistanzmessungen
Institut für Theoretische Geodäsie und Geophysik, Abteilung Theoretische Geodäsie, TU-Wien, 1998. Begutachter: Univ.Prof. Dr. K. Bretterbauer, Begutachter: Dr. R. Weber.
Kurzfassung/Abstract
Die Modellierung der Bahn künstlicher Erdsatelliten ist heute oft Voraussetzung für die Ableitung geodynamischer Kenngrößen und gehört zu den Standardaufgaben der modernen Geodäsie. Erfordert die Mission, wie z.B. im Falle des GFZ-1 jedoch eine geringe Bahnhöhe, dann erweist sich die Modellierung als extrem schwierig und bedarf spezieller Überlegungen, die in der vorliegenden Arbeit ausgewiesen werden sollen.
Im ersten Teil wurden die Merkmale von Laserstationen sowohl im Hinblick auf den technischen Aufbau, als auch auf den praktischen Ablauf der Distanzmessungen erarbeitet. Dem Nutzer werden die Meßdaten in Form von sogenannten 'Normalpunkten' zur Verfügung gestellt. Da diese noch nicht die tatsächlichen Distanzen repräsentieren, werden in weiterer Folge die Zentrierungskorrektionen am Boden und am Satelliten und die Korrektur wegen der Refraktion in der Atmosphäre besprochen. Allgemein wird sowohl das Format als auch der Austausch von Lasermeßdaten von der CSTG Satellite und Lunar Laser Ranging Subcommission (Commission on International Coordination of Space Techniques for Geodesy and Geodynamics) koordiniert.
Der zweite Teil der Arbeit untersucht die Eignung von Filtertechniken unter Verwendung von Laserdistanzmessungen als Modellgrundlage zur Bahnbestimmung künstlicher Erdsatelliten mit besonderer Berücksichtigung tieffliegender Satelliten. Für geringe Bahnhöhen ist die Bestimmung und Vorhersage extrem sensitiv bezüglich Mängel in der Schwerefeldentwicklung und dem gewählten Atmosphärenmodell. Diese verursachen schon nach wenigen Umläufen bedeutende Fehlbeträge.
Speziell in diesem Umfeld bietet sich zur Beschreibung der Bahn die klassische Methode der Integration der Bewegungsgleichungen in Kombination mit der Modellierung stochastischer Kraftfeldparameter an. Zu diesem Zweck wurde zunächst ein Programm zur numerischen Integration von Satellitenbahnen entwickelt. Testrechnungen zeigten, daß die prädizierte Bahn vor allem in Bewegungsrichtung nicht zufriedenstellend repräsentiert wird. In weiterer Folge wurden zur Stützung der Position des Satelliten die aktuellen Laserdistanzmessungen eingeführt. Hierbei werden das lineare Modell für die Beobachtungen und das dynamische Modell für die Bewegung des Satelliten für eine optimale Schätzung des Zustandsvektors innerhalb einer Kalmanfilterung kombiniert.
Die Modellierung der Bahn künstlicher Erdsatelliten ist heute oft Voraussetzung für die Ableitung geodynamischer Kenngrößen und gehört zu den Standardaufgaben der modernen Geodäsie. Erfordert die Mission, wie z.B. im Falle des GFZ-1 jedoch eine geringe Bahnhöhe, dann erweist sich die Modellierung als extrem schwierig und bedarf spezieller Überlegungen, die in der vorliegenden Arbeit ausgewiesen werden sollen.
Im ersten Teil wurden die Merkmale von Laserstationen sowohl im Hinblick auf den technischen Aufbau, als auch auf den praktischen Ablauf der Distanzmessungen erarbeitet. Dem Nutzer werden die Meßdaten in Form von sogenannten 'Normalpunkten' zur Verfügung gestellt. Da diese noch nicht die tatsächlichen Distanzen repräsentieren, werden in weiterer Folge die Zentrierungskorrektionen am Boden und am Satelliten und die Korrektur wegen der Refraktion in der Atmosphäre besprochen. Allgemein wird sowohl das Format als auch der Austausch von Lasermeßdaten von der CSTG Satellite und Lunar Laser Ranging Subcommission (Commission on International Coordination of Space Techniques for Geodesy and Geodynamics) koordiniert.
Der zweite Teil der Arbeit untersucht die Eignung von Filtertechniken unter Verwendung von Laserdistanzmessungen als Modellgrundlage zur Bahnbestimmung künstlicher Erdsatelliten mit besonderer Berücksichtigung tieffliegender Satelliten. Für geringe Bahnhöhen ist die Bestimmung und Vorhersage extrem sensitiv bezüglich Mängel in der Schwerefeldentwicklung und dem gewählten Atmosphärenmodell. Diese verursachen schon nach wenigen Umläufen bedeutende Fehlbeträge.
Speziell in diesem Umfeld bietet sich zur Beschreibung der Bahn die klassische Methode der Integration der Bewegungsgleichungen in Kombination mit der Modellierung stochastischer Kraftfeldparameter an. Zu diesem Zweck wurde zunächst ein Programm zur numerischen Integration von Satellitenbahnen entwickelt. Testrechnungen zeigten, daß die prädizierte Bahn vor allem in Bewegungsrichtung nicht zufriedenstellend repräsentiert wird. In weiterer Folge wurden zur Stützung der Position des Satelliten die aktuellen Laserdistanzmessungen eingeführt. Hierbei werden das lineare Modell für die Beobachtungen und das dynamische Modell für die Bewegung des Satelliten für eine optimale Schätzung des Zustandsvektors innerhalb einer Kalmanfilterung kombiniert.
GDF als Datenmodell für die digitale Straßenkarte Graz
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU Graz, 1998. Betreuer: Prof. Dr. N. Bartelme.
Kurzfassung/Abstract
Digitale Straßenkarten werden in vielen Anwendungen auf dem Gebiet der Fahrzeugnavigation und Routensuche benötigt. In den letzten Jahren wurden europaweit analoge Straßenkarten digitalisiert und mit zusätzlichen den Verkehr betreffenden Informationen versehen. Die Grundlage einer digitalen Straßenkarte bilden ein standardisiertes Datenmodell und die dazugehörende Datenschnittstelle. Die Verwendung unterschiedlicher Modelle erfordert ein einheitliches Austauschformat oder Datenschnittstellen zwischen den einzelnen Systemen. Mit dem europäischen Standard GDF (Geographic Data Files) steht ein weit verbreitetes und anwendungsunabhängiges Datenmodell zur Verfügung, das auch ein Format zum Transfer von Daten beinhaltet.
Die Straßendaten der Datenbank des digitalen Stadtplans Graz liegen im Sicad-Datenformat SQD vor. Um diese Daten in das GDF-Modell zu transferieren, wurde in C++ eine Schnittstelle zum GDF-Format programmiert. Eine Aufwertung des Datenmaterials sollte durch die Zuordnung der Hausnummern zu den einzelnen Straßenstücken in Form einer Kilometrierung erfolgen. Die Abbildung dieser Information auf das GDF-Datenmodell konnte allerdings bisher noch nicht zufriedenstellend erfolgen und bleibt damit Gegenstand weiterführender Arbeiten.
Digitale Straßenkarten werden in vielen Anwendungen auf dem Gebiet der Fahrzeugnavigation und Routensuche benötigt. In den letzten Jahren wurden europaweit analoge Straßenkarten digitalisiert und mit zusätzlichen den Verkehr betreffenden Informationen versehen. Die Grundlage einer digitalen Straßenkarte bilden ein standardisiertes Datenmodell und die dazugehörende Datenschnittstelle. Die Verwendung unterschiedlicher Modelle erfordert ein einheitliches Austauschformat oder Datenschnittstellen zwischen den einzelnen Systemen. Mit dem europäischen Standard GDF (Geographic Data Files) steht ein weit verbreitetes und anwendungsunabhängiges Datenmodell zur Verfügung, das auch ein Format zum Transfer von Daten beinhaltet.
Die Straßendaten der Datenbank des digitalen Stadtplans Graz liegen im Sicad-Datenformat SQD vor. Um diese Daten in das GDF-Modell zu transferieren, wurde in C++ eine Schnittstelle zum GDF-Format programmiert. Eine Aufwertung des Datenmaterials sollte durch die Zuordnung der Hausnummern zu den einzelnen Straßenstücken in Form einer Kilometrierung erfolgen. Die Abbildung dieser Information auf das GDF-Datenmodell konnte allerdings bisher noch nicht zufriedenstellend erfolgen und bleibt damit Gegenstand weiterführender Arbeiten.
Ableitung digitaler Geländemodelle aus SAR-Daten
Institut für Angewandte Geodäsie, Abteilung Photogrammetrie und Fernerkundung, TU Graz, 1997. Begutachter: o.Univ.Prof. Dr. G. Brandstätter.
Kurzfassung/Abstract
Die Qualität der thematischen Auswertung von Fernerkundungs- (FE-) Daten hängt entscheidend von der Genauigkeit der im Vorfeld stattfindenden geometrischen Verarbeitung ab. Eine exakte Georeferenzierung der FE-Daten ist in bergigen Landstrichen ohne Höheninformation nicht denkbar. Dieses Wissen über den Verlauf der Geländeoberfläche ist für weite Teile des Globus nicht mit ausreichender Qualität vorhanden. Diese Arbeit versucht nun sowohl die theoretischen Hintergründe, als auch Beispiele zur Ableitung von digitalen Geländemodellen (DGM) aus SAR-Daten aufzuzeigen. Im speziellen wird die Möglichkeit der interferometrischen DGM-Erstellung aus SAR-Daten anhand der Prozessierungskette beschrieben und Probleme angeschnitten. Dafür standen Daten des ERS-1 Satelliten im Bereich Dortmund zur Verfügung. Neben der Ableitung eines DGM's wird hier eine neue Methode der abschließenden Georeferenzierung über eine räumliche Drehstreckung untersucht. In einem weiteren Beispiel wird die Anwendbarkeit der stereometrischen DGM-Erstellung, die im Bereich der optischen Sensoren schon mit Erfolg eingesetzt wird, für SAR- Daten ausgetestet. Dafür standen Daten des kanadischen Satelliten RADARSAT zur Verfügung. Neben den notwendigen Vorverarbeitungsschritten wird das Korrelationsverhalten und die Qualität der abgeleiteten Produkte für das Gebiet Bruck/Mur dokumentiert.
Die Qualität der thematischen Auswertung von Fernerkundungs- (FE-) Daten hängt entscheidend von der Genauigkeit der im Vorfeld stattfindenden geometrischen Verarbeitung ab. Eine exakte Georeferenzierung der FE-Daten ist in bergigen Landstrichen ohne Höheninformation nicht denkbar. Dieses Wissen über den Verlauf der Geländeoberfläche ist für weite Teile des Globus nicht mit ausreichender Qualität vorhanden. Diese Arbeit versucht nun sowohl die theoretischen Hintergründe, als auch Beispiele zur Ableitung von digitalen Geländemodellen (DGM) aus SAR-Daten aufzuzeigen. Im speziellen wird die Möglichkeit der interferometrischen DGM-Erstellung aus SAR-Daten anhand der Prozessierungskette beschrieben und Probleme angeschnitten. Dafür standen Daten des ERS-1 Satelliten im Bereich Dortmund zur Verfügung. Neben der Ableitung eines DGM's wird hier eine neue Methode der abschließenden Georeferenzierung über eine räumliche Drehstreckung untersucht. In einem weiteren Beispiel wird die Anwendbarkeit der stereometrischen DGM-Erstellung, die im Bereich der optischen Sensoren schon mit Erfolg eingesetzt wird, für SAR- Daten ausgetestet. Dafür standen Daten des kanadischen Satelliten RADARSAT zur Verfügung. Neben den notwendigen Vorverarbeitungsschritten wird das Korrelationsverhalten und die Qualität der abgeleiteten Produkte für das Gebiet Bruck/Mur dokumentiert.
A practical study for ambiguity resolution
Institut für Angewandte Geodäsie, Abteilung für Positionierung und Navigation, TU Graz, 1998. Begutachter: Prof. Dr. H. Lichtenegger.
Kurzfassung/Abstract
Eine zuverlässige Lösung der Integer Ambiguitäten für das Globale Positionierungs System (GPS) zwischen Satelliten und Receivern erfordert derzeit noch einen beträchtlichen Zeitaufwand. Ein anscheinend limitierender Faktor ist die Anzahl der Beobachtungen um statistischen Anforderungen gerecht zu werden. Sjoeberg (1996) untersuchte ein Modell zur Ambiguitätenlösung mit Phasen und Code Beobachtungen um eine Lösung für jede einzelne Epoche zu bekommen. Da dieses Modell noch nicht mit echten GPS Beobachtungen verifiziert wurde, wurden statische und kinematische Tests zur Überprüfung durchgeführt. Weiters wurden Einflüsse untersucht, welche eine zuverlässige Lösung verhindern können. Die Anwendbarkeit dieser Methode wird zusammengefaßt und Aussichten für die Zukunft abgeleitet.
Eine zuverlässige Lösung der Integer Ambiguitäten für das Globale Positionierungs System (GPS) zwischen Satelliten und Receivern erfordert derzeit noch einen beträchtlichen Zeitaufwand. Ein anscheinend limitierender Faktor ist die Anzahl der Beobachtungen um statistischen Anforderungen gerecht zu werden. Sjoeberg (1996) untersuchte ein Modell zur Ambiguitätenlösung mit Phasen und Code Beobachtungen um eine Lösung für jede einzelne Epoche zu bekommen. Da dieses Modell noch nicht mit echten GPS Beobachtungen verifiziert wurde, wurden statische und kinematische Tests zur Überprüfung durchgeführt. Weiters wurden Einflüsse untersucht, welche eine zuverlässige Lösung verhindern können. Die Anwendbarkeit dieser Methode wird zusammengefaßt und Aussichten für die Zukunft abgeleitet.
Die Helmerttransformation unter Berücksichtigung der Restklaffungen am Beispiel des Innerberger Forstnetzes
Abteilung Positionierung und Navigation, TU-Graz, 1998. Begutachter: Univ.Prof. Dr. B. Hofmann-Wellenhof.
Kurzfassung/Abstract
Es wird der Versuch unternommen, den Einfluß der Restklaffungen bei der Helmerttransformation in den Paßpunkten auf die zu transformierenden Netzpunkte eines lokalen Systems optimal zu berücksichtigen. Dabei ist auch das Problem von externen Punkten zu behandeln. Schließlich ist dieses Verfahren auf die Transformation sämtlicher Punkte des Innerberger Forstnetzes in das Landeskoordinatensystem anzuwenden und eine Aussage darüber zu treffen, ob die Gesamttransformation eines ausgedehnten Netzes akzeptable Ergebnisse bringt, oder ob Teiltransformationen besser sind.
Ergebnisse: Die Restklaffenverteilung unter Berücksichtigung von Grenzen bewirkt im Vergleich zur normalen Helmerttransformation eine deutliche Verbesserung der Güte der Ergebnisse, da die lokalen Spannungsverhältnisse eines Netzes wesentlich besser auf die transformierten Punkte aufgeteilt werden können. Dadurch kann eine Gesamttransformation durchaus mehrere Teiltransformationen eines Netzes ersetzen, ohne Einbußen in der Genauigkeit hinnehmen zu müssen. Die Transformation äußerer Punkte hängt eindeutig von den lokalen Spannungsverhältnissen des dem Punkt nahen Netzteiles ab. Bei geringen Spannungen bringt eine Extrapolation unter Berücksichtigung von Restklaffungen und Grenzen gute Ergebnisse, große Spannungen bringen verfälscht Ergebnisse.
Es wird der Versuch unternommen, den Einfluß der Restklaffungen bei der Helmerttransformation in den Paßpunkten auf die zu transformierenden Netzpunkte eines lokalen Systems optimal zu berücksichtigen. Dabei ist auch das Problem von externen Punkten zu behandeln. Schließlich ist dieses Verfahren auf die Transformation sämtlicher Punkte des Innerberger Forstnetzes in das Landeskoordinatensystem anzuwenden und eine Aussage darüber zu treffen, ob die Gesamttransformation eines ausgedehnten Netzes akzeptable Ergebnisse bringt, oder ob Teiltransformationen besser sind.
Ergebnisse: Die Restklaffenverteilung unter Berücksichtigung von Grenzen bewirkt im Vergleich zur normalen Helmerttransformation eine deutliche Verbesserung der Güte der Ergebnisse, da die lokalen Spannungsverhältnisse eines Netzes wesentlich besser auf die transformierten Punkte aufgeteilt werden können. Dadurch kann eine Gesamttransformation durchaus mehrere Teiltransformationen eines Netzes ersetzen, ohne Einbußen in der Genauigkeit hinnehmen zu müssen. Die Transformation äußerer Punkte hängt eindeutig von den lokalen Spannungsverhältnissen des dem Punkt nahen Netzteiles ab. Bei geringen Spannungen bringt eine Extrapolation unter Berücksichtigung von Restklaffungen und Grenzen gute Ergebnisse, große Spannungen bringen verfälscht Ergebnisse.
GPS-Grundlagennetz zur Erschließung eines bisher zufahrtslosen Alpentales
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Ingenieurgeodäsie, TU-Wien, 1998, Begutachter: Univ.Doz. Dr. Th. Wunderlich, Betreuer: Dr. R. Weber.
Kurzfassung/Abstract
Diese Diplomarbeit umfaßt einerseits die Darstellung von Erschließungsvarianten für das bisher für Anrainer nur mühsam zu erreichende Kaisertal im Tiroler Unterland und andererseits die Schaffung eines Grundlagennetzes für die Durchführung dieser verschiedenen Varianten.
Das Kaisertal ist nur zu Fuß über Treppen - den sogenannten Kaiseraufstieg - zu erreichen. Der Gütertransport erfolgt mit einer Materialseilbahn. Im Tal leben ca. 50 Menschen, der Großteil davon das ganze Jahr über.
Für die Erschließung kommen zwei Tunnelvarianten, ein Brückenbau, Schräg- und Schachtaufzug oder der Ausbau der bestehenden Materialseilbahn in Frage. Welche Variante schlußendlich realisiert wird, stand zum Zeitpunkt des Planungsbeginnes für das Grundlagennetz noch nicht fest. Aus diesem Grund mußte das Netz so angelegt werden, daß es für verschiedene Realisierungen verwendbar ist.
Das Grundlagennetz umfaßt insgesamt 12 Punkte, von denen 5 neu geschaffen wurden. Als Meßmittel wurde GPS verwendet, da durch die Lage der Netzpunkte teilweise keine direkte Sichtverbindung vorhanden ist. Nur die Neupunkte im Kaisertal wurden zusätzlich durch terrestrische Messungen (Richtung, Zenitdistanz, Schrägstrecke) verstärkt. Diese Meßwerte wurden wegen der hohen Genauigkeitsanforderung unter anderem wegen Lotabweichung korrigiert.
Bei der Ausgleichung der Meßdaten erfolgte zuerst ein freier Ausgleich der GPS-Daten. Durch Hinzunahme der terrestrischen Messungen wurde anschließend ein kombinierter freier Ausgleich der gesamten Meßdaten gerechnet. Die Ausgleichungen wurden mit dem Programmsystem PANDA (Programm zur Ausgleichung geodätischer Netze und DeformationsAnalyse) durchgeführt. Die Koordinaten der Netzpunkte liegen im Landeskoordinatensystem vor. Die graphische Darstellung der Netzpunkte erfolgte mit AUTOCAD. Die Genauigkeit der gesamten Netzpunkte liegt unter 3 mm, nur der Punkt S1 weist mit 4 mm die größte Standardabweichung auf.
Diese Diplomarbeit umfaßt einerseits die Darstellung von Erschließungsvarianten für das bisher für Anrainer nur mühsam zu erreichende Kaisertal im Tiroler Unterland und andererseits die Schaffung eines Grundlagennetzes für die Durchführung dieser verschiedenen Varianten.
Das Kaisertal ist nur zu Fuß über Treppen - den sogenannten Kaiseraufstieg - zu erreichen. Der Gütertransport erfolgt mit einer Materialseilbahn. Im Tal leben ca. 50 Menschen, der Großteil davon das ganze Jahr über.
Für die Erschließung kommen zwei Tunnelvarianten, ein Brückenbau, Schräg- und Schachtaufzug oder der Ausbau der bestehenden Materialseilbahn in Frage. Welche Variante schlußendlich realisiert wird, stand zum Zeitpunkt des Planungsbeginnes für das Grundlagennetz noch nicht fest. Aus diesem Grund mußte das Netz so angelegt werden, daß es für verschiedene Realisierungen verwendbar ist.
Das Grundlagennetz umfaßt insgesamt 12 Punkte, von denen 5 neu geschaffen wurden. Als Meßmittel wurde GPS verwendet, da durch die Lage der Netzpunkte teilweise keine direkte Sichtverbindung vorhanden ist. Nur die Neupunkte im Kaisertal wurden zusätzlich durch terrestrische Messungen (Richtung, Zenitdistanz, Schrägstrecke) verstärkt. Diese Meßwerte wurden wegen der hohen Genauigkeitsanforderung unter anderem wegen Lotabweichung korrigiert.
Bei der Ausgleichung der Meßdaten erfolgte zuerst ein freier Ausgleich der GPS-Daten. Durch Hinzunahme der terrestrischen Messungen wurde anschließend ein kombinierter freier Ausgleich der gesamten Meßdaten gerechnet. Die Ausgleichungen wurden mit dem Programmsystem PANDA (Programm zur Ausgleichung geodätischer Netze und DeformationsAnalyse) durchgeführt. Die Koordinaten der Netzpunkte liegen im Landeskoordinatensystem vor. Die graphische Darstellung der Netzpunkte erfolgte mit AUTOCAD. Die Genauigkeit der gesamten Netzpunkte liegt unter 3 mm, nur der Punkt S1 weist mit 4 mm die größte Standardabweichung auf.
CAD und FM für das Tiroler Landestheater
Institut für Geodäsie, Universität Innsbruck und Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU Graz, 1998. Betreuer: Prof. Dr. G. Chesi, Prof. Dr. N. Bartelme.
Kurzfassung/Abstract
Diese Arbeit wurde in Zusammenarbeit mit dem Tiroler Landestheater erstellt. Neben einer Vermessung des Bühnenraums war die Erstellung eines dreidimensionalen Modells und eines Facility Management Demoprojekts Ziel der Arbeit. Die Vermessung erfolgte mit Hilfe eines Wild T1610 Theodoliten und eines Power Disto als Aufsatzdistanzer. So konnte die Vermessung reflektorlos ausgeführt werden. Mit den Daten der Vermessung als Grundlage wurde mit Hilfe des CAD-Programms MicroGDS ein 3D-Modell erstellt. Das Facility-Management-Demoprojekt wurde mittels des Programms MicroGDS, der Datenbank Access97 und MicroFM, einer CAD-Datenbank Schnittstelle, realisiert. Es wurde eine Objektstruktur erstellt, Daten im Theater erhoben, in das System eingebracht und semantische und graphische Daten verknüpft. Die Ergebnisse der Arbeit dienen der Veranschaulichung der eingesetzten Werkzeuge und können als Basis für weitere Arbeit verwendet werden.
Diese Arbeit wurde in Zusammenarbeit mit dem Tiroler Landestheater erstellt. Neben einer Vermessung des Bühnenraums war die Erstellung eines dreidimensionalen Modells und eines Facility Management Demoprojekts Ziel der Arbeit. Die Vermessung erfolgte mit Hilfe eines Wild T1610 Theodoliten und eines Power Disto als Aufsatzdistanzer. So konnte die Vermessung reflektorlos ausgeführt werden. Mit den Daten der Vermessung als Grundlage wurde mit Hilfe des CAD-Programms MicroGDS ein 3D-Modell erstellt. Das Facility-Management-Demoprojekt wurde mittels des Programms MicroGDS, der Datenbank Access97 und MicroFM, einer CAD-Datenbank Schnittstelle, realisiert. Es wurde eine Objektstruktur erstellt, Daten im Theater erhoben, in das System eingebracht und semantische und graphische Daten verknüpft. Die Ergebnisse der Arbeit dienen der Veranschaulichung der eingesetzten Werkzeuge und können als Basis für weitere Arbeit verwendet werden.
An object-oriented model of a cadaster
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Geoinformation und Landesvermessung, TU-Wien, 1998. Begutachter: o.Univ.Prof. Dr. A. Frank, Betreuer: Dipl.-Ing. M. Staudinger.
Kurzfassung/Abstract
Das Ziel dieser Arbeit ist es, ein mathematisch fundiertes, objektorientiertes Modell des Österreichischen Grundbuches und Katasters zu erstellen. Grundbuch und Kataster liefern Informationen zu Grund und Boden und arbeiten dabei eng zusammen (z.B. Einreichung eines Teilungsplanes). Die Zusammenarbeit dieser beiden Systeme ist, wie auch die Teilsysteme selbst, in ihrem Aufbau sehr komplex. Um das Gesamtsystem besser verstehen zu können benötigt man ein Modell. Die Schaffung dieses Modells ist die Aufgabe dieser Diplomarbeit.
Zwischen Grundbuch und Kataster bestehen nur geringe Unterschiede in der Art der Bearbeitung. Grundbuch und Kataster bilden gemeinsam die Basis für die Verwaltung von Grund und Boden. Beide Teilsysteme arbeiten dabei mit Grundflächen (Grundbuchskörper im Grundbuch, Grundstücke im Kataster) und mit Dokumenten (Textdokumente im Grundbuch, Plandokumente im Kataster). Die Unterschiede in der Art der verwendeten Dokumente verlangen verschiedene Behandlung (z.B. Unterschiede in den Testmethoden). Die Struktur der Bearbeitung (z.B. Einlangen - formale Tests - Kundmachung - genaue Tests - Durchführung bei der Eintragung neuer Dokumente) ist jedoch gleich. Daher ist die strenge Trennung zwischen Grundbuch und Kataster nicht erforderlich, wenn man nur von den Problemstellungen (von den Prozessen, die für den Anwender wichtig sind) und ihren Lösungen ausgeht.
Das Ziel dieser Arbeit ist es, ein mathematisch fundiertes, objektorientiertes Modell des Österreichischen Grundbuches und Katasters zu erstellen. Grundbuch und Kataster liefern Informationen zu Grund und Boden und arbeiten dabei eng zusammen (z.B. Einreichung eines Teilungsplanes). Die Zusammenarbeit dieser beiden Systeme ist, wie auch die Teilsysteme selbst, in ihrem Aufbau sehr komplex. Um das Gesamtsystem besser verstehen zu können benötigt man ein Modell. Die Schaffung dieses Modells ist die Aufgabe dieser Diplomarbeit.
Zwischen Grundbuch und Kataster bestehen nur geringe Unterschiede in der Art der Bearbeitung. Grundbuch und Kataster bilden gemeinsam die Basis für die Verwaltung von Grund und Boden. Beide Teilsysteme arbeiten dabei mit Grundflächen (Grundbuchskörper im Grundbuch, Grundstücke im Kataster) und mit Dokumenten (Textdokumente im Grundbuch, Plandokumente im Kataster). Die Unterschiede in der Art der verwendeten Dokumente verlangen verschiedene Behandlung (z.B. Unterschiede in den Testmethoden). Die Struktur der Bearbeitung (z.B. Einlangen - formale Tests - Kundmachung - genaue Tests - Durchführung bei der Eintragung neuer Dokumente) ist jedoch gleich. Daher ist die strenge Trennung zwischen Grundbuch und Kataster nicht erforderlich, wenn man nur von den Problemstellungen (von den Prozessen, die für den Anwender wichtig sind) und ihren Lösungen ausgeht.
Optimierung des Atmosphärenmodells und der Meßzyklen am Beispiel der automatischen Polarmeßstation Durlaßboden
Institut für Angewandte Geodäsie, Abteilung für lngenieurvermessung und Meßtechnik, TU Graz, 1998. Begutachter: o.Univ.Prof. Dr. G. Schelling.
Kurzfassung/Abstract
Der Stausee Durlaßboden liegt am Gerlospaß an der Grenze zwischen den Bundesländern Salzburg und Tirol und gehört der Werksgruppe Gerlos der Tauernkraft als Jahresspeicher an. Seit seiner Fertigstellung im Jahr 1966 bewegen sich die den See umgebenden Hänge, wobei an einigen Stellen bereits Hangrutschungen von mehreren Metern auftraten. Diese Hänge wurden häufig beobachtet, und seit September 1997 geschieht dies mittels einer automatischen Polarmeßstation, welche kurzperiodische Messungen liefert. Die von dieser aus motorisiertem Videotheodolit und Steuersoftware bestehenden Station gelieferten geodätischen Meßwerte sind durch den Einfluß der Atmosphäre verfälscht und müssen meteorologisch korrigiert werden. Ziel war es, Methoden zu finden, welche praxisorientiert Streckenkorrektionen und Refraktionskoeffizienten ermitteln. Es wurde eine Langzeitmessung über vierzig Stunden hinweg durchgeführt, wobei in zwei Standpunkten alle zehn Minuten je eine Satzmessung erfolgte. Weiters wurden Druck- und Temperaturwerte registriert. Es zeigte sich, daß sowohl die Streckenkorrektionen als auch die Refraktionskoeffizienten sich am günstigsten direkt aus den Meßdaten ableiten lassen, erstere durch Verhältnisbildungen, letztere aus bekannten Höhenunterschieden. Weiters ist es zweckmäßig, die Messungen während des meteorologisch günstigen Zeitraumes zwischen 21.00 Uhr und 3.00 Uhr durchzuführen.
Der Stausee Durlaßboden liegt am Gerlospaß an der Grenze zwischen den Bundesländern Salzburg und Tirol und gehört der Werksgruppe Gerlos der Tauernkraft als Jahresspeicher an. Seit seiner Fertigstellung im Jahr 1966 bewegen sich die den See umgebenden Hänge, wobei an einigen Stellen bereits Hangrutschungen von mehreren Metern auftraten. Diese Hänge wurden häufig beobachtet, und seit September 1997 geschieht dies mittels einer automatischen Polarmeßstation, welche kurzperiodische Messungen liefert. Die von dieser aus motorisiertem Videotheodolit und Steuersoftware bestehenden Station gelieferten geodätischen Meßwerte sind durch den Einfluß der Atmosphäre verfälscht und müssen meteorologisch korrigiert werden. Ziel war es, Methoden zu finden, welche praxisorientiert Streckenkorrektionen und Refraktionskoeffizienten ermitteln. Es wurde eine Langzeitmessung über vierzig Stunden hinweg durchgeführt, wobei in zwei Standpunkten alle zehn Minuten je eine Satzmessung erfolgte. Weiters wurden Druck- und Temperaturwerte registriert. Es zeigte sich, daß sowohl die Streckenkorrektionen als auch die Refraktionskoeffizienten sich am günstigsten direkt aus den Meßdaten ableiten lassen, erstere durch Verhältnisbildungen, letztere aus bekannten Höhenunterschieden. Weiters ist es zweckmäßig, die Messungen während des meteorologisch günstigen Zeitraumes zwischen 21.00 Uhr und 3.00 Uhr durchzuführen.
Hochgenaue Zuordnung von homologen Punkten mittels objektorientierte Programmierung. Anwendung des Förstner- und des Kleinste Quadrate-Korrelationsverfahrens
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, TU Graz, 1998. Begutachter: o.Univ.Prof. Dr. G. Brandstätter.
Kurzfassung/Abstract
Während eine Interpretation von Bildern (semantische Information eines Bildes) von einem Rechner nur sehr schwer durchzuführen ist, gibt es für einen anderen Aufgabenbereich bereits eine große Anzahl von Lösungsmöglichkeiten, von denen in dieser Arbeit einige näher vorgestellt werden sollen.
Bei dieser Aufgabe handelt es sich um eines der Hauptprobleme der Digitalphotogrammtrie, der automatisierten Messung von Bildkoordinaten korrespondierender Bildelemente für die Bildorientierung (Messung der Rahmenmarken und der Passpunkte) eines Stereobildpaares und in weiterer Folge zur Objektrekonstruktion.
In der Literatur wird eine solche Zuordnung homologer Punkte auch "image matching" genannt.
Diese Arbeit greift ein spezielles Verfahren aus der Stuttgarter Photogrammetrie-Schule (F. Ackermann) heraus, wie es von W. Förstner 1986 entwickelt wurde.
Nach einer ausführlichen Beschreibung des mathematischen Hintergrundes erfolgte die Implementierung mittels der objektorientierten Klassenbibliothek "lmageVision" auf einer "lndy" der Firma "Silicon Graphics" und eine Präsentation der Ergebnisse.
Während eine Interpretation von Bildern (semantische Information eines Bildes) von einem Rechner nur sehr schwer durchzuführen ist, gibt es für einen anderen Aufgabenbereich bereits eine große Anzahl von Lösungsmöglichkeiten, von denen in dieser Arbeit einige näher vorgestellt werden sollen.
Bei dieser Aufgabe handelt es sich um eines der Hauptprobleme der Digitalphotogrammtrie, der automatisierten Messung von Bildkoordinaten korrespondierender Bildelemente für die Bildorientierung (Messung der Rahmenmarken und der Passpunkte) eines Stereobildpaares und in weiterer Folge zur Objektrekonstruktion.
In der Literatur wird eine solche Zuordnung homologer Punkte auch "image matching" genannt.
Diese Arbeit greift ein spezielles Verfahren aus der Stuttgarter Photogrammetrie-Schule (F. Ackermann) heraus, wie es von W. Förstner 1986 entwickelt wurde.
Nach einer ausführlichen Beschreibung des mathematischen Hintergrundes erfolgte die Implementierung mittels der objektorientierten Klassenbibliothek "lmageVision" auf einer "lndy" der Firma "Silicon Graphics" und eine Präsentation der Ergebnisse.
GILP - Geodätisches interaktives Lernprogramm
Institut für Theoretische Geodäsie, Abteilung für Physikalische Geodäsie, TU Graz, 1998. Betreuer: Ass.Prof. Dr. K. Rautz.
Kurzfassung/Abstract
Im Zeitalter des Computers sollten neue Technologien neue Wege des Lehrens und Lernens bereiten. Mit der Entwicklung von Computer Algebra Systemen wurden sowohl Produktivität als auch Genauigkeit der mathematischen Wissenschaften gesteigert. Allerdings hat sich der Einsatz dieser mathematischen Programmpakete als Lernwerkzeug noch nicht durchgesetzt. Die neueste Version 3.0 des Computer Algebra Systems MATHEMATICA läßt eine Verbesserung der Anwendungsmöglichkeit von MATHEMATICA für interaktives Lernen vermuten. In dieser Diplomarbeit wird das Konzept für ein interaktives Lernprogramm, das auf MATHEMATICA basiert, vorgestellt. Es beruht auf der konstruktivistischen Lernidee und fördert ein selbständiges Experimentieren des Lernenden. Das Programm ist so aufgebaut, daß ein Anwender mit relativ geringen MATHEMATICA Vorkenntnissen es mühelos bedienen kann. Es besteht aus einzelnen Lernmodulen und ist somit beliebig erweiterbar. Für das "Pilot Lernprogramm" werden drei Themenbereiche aus der Geodäsie exemplarisch als Lernmodule ausgearbeitet. Es sind dies die Themen Orthogonale Transformationen, Kartenentwurfslehre und Kugelfunktionen.
Im Zeitalter des Computers sollten neue Technologien neue Wege des Lehrens und Lernens bereiten. Mit der Entwicklung von Computer Algebra Systemen wurden sowohl Produktivität als auch Genauigkeit der mathematischen Wissenschaften gesteigert. Allerdings hat sich der Einsatz dieser mathematischen Programmpakete als Lernwerkzeug noch nicht durchgesetzt. Die neueste Version 3.0 des Computer Algebra Systems MATHEMATICA läßt eine Verbesserung der Anwendungsmöglichkeit von MATHEMATICA für interaktives Lernen vermuten. In dieser Diplomarbeit wird das Konzept für ein interaktives Lernprogramm, das auf MATHEMATICA basiert, vorgestellt. Es beruht auf der konstruktivistischen Lernidee und fördert ein selbständiges Experimentieren des Lernenden. Das Programm ist so aufgebaut, daß ein Anwender mit relativ geringen MATHEMATICA Vorkenntnissen es mühelos bedienen kann. Es besteht aus einzelnen Lernmodulen und ist somit beliebig erweiterbar. Für das "Pilot Lernprogramm" werden drei Themenbereiche aus der Geodäsie exemplarisch als Lernmodule ausgearbeitet. Es sind dies die Themen Orthogonale Transformationen, Kartenentwurfslehre und Kugelfunktionen.
Structuring Wayfinding Tasks with Image Schemata
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Geoinformation und Landesvermessung, TU-Wien / Department of Spatial Information Science and Engineering - University of Maine, USA, 1998. Advisory Committee: Dr. A. Frank, Dr. M. Egenhofer, Dr. W. Kuhn, Dr. K. Beard.
Kurzfassung/Abstract
Wegesuche ist eine grundlegende Aktivität der Menschen im täglichen Leben: sie navigieren von einem Ort zum anderen. Viele Theorien der räumlichen Kognition sind entwickelt worden, um dieses Verhalten zu erklären. Die meisten Computermodelle konzentrieren sich aber auf Wissensrepräsentation (z.B. kognitive Karten) und berücksichtigen den Prozeß des Strukturierens von Wegesucheaufgaben und Raum nicht. Diese Diplomarbeit präsentiert eine Methode zum Strukturieren von menschlichen Wegesucheaufgaben, welche auf sogenannten Image Schemata aufbaut. Image Schemata sind wiederkehrende mentale Muster (z.B. das Container- oder Wegeschema), welche von Menschen verwendet werden, um eine räumliche Situation zu verstehen. Sie sind gut strukturiert und in der menschlichen Erfahrung verankert.
In dieser Diplomarbeit wird der Raum von Flughäfen genauer untersucht. Viele Flughäfen sind schlecht geplant und Passagiere sind oft mit den speziellen Anforderungen der Wegesuche in Flughäfen nicht vertraut. Wir vergleichen zwei ausgewählte Flughäfen hinsichtlich der Ausführung einer gebräuchlichen Wegesucheaufgabe. Dafür wird die Methode zum Strukturieren von Raum mit Image Schemata mit einem vorgeschlagenen Wegesuchemodell kombiniert. Wir zeigen, daß Sequenzen von Image Schemata ausreichen, um Wegesucheaufgaben in räumlichen Umgebungen auf einer abstrakten Ebene zu beschreiben. Deshalb können Image Schemata auch zum Vergleich der Komplexität von Wegesucheaufgaben in verschiedenen Flughäfen verwendet werden.
Die Eingliederung von Image Schemata in den Planungsprozeß von räumlichen Umgebungen wie z.B. Flughäfen (d.h. die Implementierung unserer Methode in einem Computersystem), wird dabei helfen, architektonische Probleme betreffend Wegesuche vor dem Bau zu identifizieren. Die Strukturierungsmethode kann generalisiert werden und trägt dann zum Entwurf zukünftiger geographischer Informationssysteme bei, von denen man verlangt, daß sie Elemente des menschlichen räumlichen Verstehens mit einbeziehen.
Wegesuche ist eine grundlegende Aktivität der Menschen im täglichen Leben: sie navigieren von einem Ort zum anderen. Viele Theorien der räumlichen Kognition sind entwickelt worden, um dieses Verhalten zu erklären. Die meisten Computermodelle konzentrieren sich aber auf Wissensrepräsentation (z.B. kognitive Karten) und berücksichtigen den Prozeß des Strukturierens von Wegesucheaufgaben und Raum nicht. Diese Diplomarbeit präsentiert eine Methode zum Strukturieren von menschlichen Wegesucheaufgaben, welche auf sogenannten Image Schemata aufbaut. Image Schemata sind wiederkehrende mentale Muster (z.B. das Container- oder Wegeschema), welche von Menschen verwendet werden, um eine räumliche Situation zu verstehen. Sie sind gut strukturiert und in der menschlichen Erfahrung verankert.
In dieser Diplomarbeit wird der Raum von Flughäfen genauer untersucht. Viele Flughäfen sind schlecht geplant und Passagiere sind oft mit den speziellen Anforderungen der Wegesuche in Flughäfen nicht vertraut. Wir vergleichen zwei ausgewählte Flughäfen hinsichtlich der Ausführung einer gebräuchlichen Wegesucheaufgabe. Dafür wird die Methode zum Strukturieren von Raum mit Image Schemata mit einem vorgeschlagenen Wegesuchemodell kombiniert. Wir zeigen, daß Sequenzen von Image Schemata ausreichen, um Wegesucheaufgaben in räumlichen Umgebungen auf einer abstrakten Ebene zu beschreiben. Deshalb können Image Schemata auch zum Vergleich der Komplexität von Wegesucheaufgaben in verschiedenen Flughäfen verwendet werden.
Die Eingliederung von Image Schemata in den Planungsprozeß von räumlichen Umgebungen wie z.B. Flughäfen (d.h. die Implementierung unserer Methode in einem Computersystem), wird dabei helfen, architektonische Probleme betreffend Wegesuche vor dem Bau zu identifizieren. Die Strukturierungsmethode kann generalisiert werden und trägt dann zum Entwurf zukünftiger geographischer Informationssysteme bei, von denen man verlangt, daß sie Elemente des menschlichen räumlichen Verstehens mit einbeziehen.
Entwicklung eines operationellen Systems zur geometrischen Analyse der Fließbewegung von Blockgletschern
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, TU Graz, 1998. Betreuer: o.Univ.Prof. Dr. G. Brandstätter.
Kurzfassung/Abstract
Blockgletscher sind Indikatoren für die Verbreitung von alpinem Permafrost. Veränderungen von Blockgletschern lassen auf längerfristige Klimaänderungen schließen. Aus diesen Gründen werden in letzter Zeit vermehrt Blockgletscher zu Forschungszwecken vermessen. Aus photogrammetrischen und geodätischen Beobachtungen werden Koordinaten identer Blockgletscherpunkte zu verschiedenen Zeitpunkten erhalten.
Ziel dieser Diplomarbeit war es, ein benutzerfreundliches Programmsystem zur Analyse dieser Daten zu entwickeln. In Windows-Programmen, die in Visual C++ erstellt wurden, können Verschiebungsvektoren, Dehnungen (Strains) und Fließlinien berechnet werden. Durch Approximationsverfahren sind zu beliebigen Punkten der Gletscheroberfläche Verschiebungsvektoren bestimmbar. Mit Hilfe eines Höhenmodells kann die reine Fließbewegung von der Gesamtverschiebung abgespalten und so auf eine Volumsänderung geschlossen werden. Die numerischen Ergebnisse werden als ASCII-Files gespeichert, die graphischen in Form von DXF-Files.
Die Dokumentation der Diplomarbeit beschreibt das Konzept und die Benutzung der Programme sowie die implementierten Algorithmen. Als praktische Anwendung wurden Analysen der Fließbewegung des Blockgletschers im Dösener Tal durchgeführt.
Blockgletscher sind Indikatoren für die Verbreitung von alpinem Permafrost. Veränderungen von Blockgletschern lassen auf längerfristige Klimaänderungen schließen. Aus diesen Gründen werden in letzter Zeit vermehrt Blockgletscher zu Forschungszwecken vermessen. Aus photogrammetrischen und geodätischen Beobachtungen werden Koordinaten identer Blockgletscherpunkte zu verschiedenen Zeitpunkten erhalten.
Ziel dieser Diplomarbeit war es, ein benutzerfreundliches Programmsystem zur Analyse dieser Daten zu entwickeln. In Windows-Programmen, die in Visual C++ erstellt wurden, können Verschiebungsvektoren, Dehnungen (Strains) und Fließlinien berechnet werden. Durch Approximationsverfahren sind zu beliebigen Punkten der Gletscheroberfläche Verschiebungsvektoren bestimmbar. Mit Hilfe eines Höhenmodells kann die reine Fließbewegung von der Gesamtverschiebung abgespalten und so auf eine Volumsänderung geschlossen werden. Die numerischen Ergebnisse werden als ASCII-Files gespeichert, die graphischen in Form von DXF-Files.
Die Dokumentation der Diplomarbeit beschreibt das Konzept und die Benutzung der Programme sowie die implementierten Algorithmen. Als praktische Anwendung wurden Analysen der Fließbewegung des Blockgletschers im Dösener Tal durchgeführt.
Ermittlung der Verschiebungen eines Festpunktfeldes im Oberinntal mit GPS
Institut für Geodäsie, Universität Innsbruck, 1998. Begutachter: o.Univ.Prof. Dr. G. Chesi.
Kurzfassung/Abstract
Im Rahmen dieser Diplomarbeit wurden Verschiebungsvektoren der amtlichen Einschaltpunkte in einem Gebiet von etwa 20km² (KG 84001-Fliess, Landeck/Tirol) bestimmt.
Als erste Epoche wurde die Einmessung der Punkte aus dem Jahr 1975 verwendet. Die nur schriftlich vorliegenden Winkel- und Entfernungsmessungen mußten als Vorbereitung aus den Messheften in den Computer übertragen werden.
Mit diesen Daten wurde ein 2-dimensionaler Ausgleich gerechnet, wodurch für die Punkte ausgeglichene Koordinaten samt Fehlerinformation zur Verfügung standen.
21 Jahre nach der Referenzmessung wurden die Koordinaten der EP's durch eine GPS-Kampagne neu bestimmt. Die aus dem WGS84-System in die GK-Ebene transformierten Koordinaten dienten als 2. Epoche der Rutschungsmessung.
Als letztes wurde kontrolliert, ob die Koordinatendifferenzen innerhalb der Meßgenauigkeit liegen, oder ob aus ihnen eine Rutschung des Punktes abgeleitet werden kann.
Im Rahmen dieser Diplomarbeit wurden Verschiebungsvektoren der amtlichen Einschaltpunkte in einem Gebiet von etwa 20km² (KG 84001-Fliess, Landeck/Tirol) bestimmt.
Als erste Epoche wurde die Einmessung der Punkte aus dem Jahr 1975 verwendet. Die nur schriftlich vorliegenden Winkel- und Entfernungsmessungen mußten als Vorbereitung aus den Messheften in den Computer übertragen werden.
Mit diesen Daten wurde ein 2-dimensionaler Ausgleich gerechnet, wodurch für die Punkte ausgeglichene Koordinaten samt Fehlerinformation zur Verfügung standen.
21 Jahre nach der Referenzmessung wurden die Koordinaten der EP's durch eine GPS-Kampagne neu bestimmt. Die aus dem WGS84-System in die GK-Ebene transformierten Koordinaten dienten als 2. Epoche der Rutschungsmessung.
Als letztes wurde kontrolliert, ob die Koordinatendifferenzen innerhalb der Meßgenauigkeit liegen, oder ob aus ihnen eine Rutschung des Punktes abgeleitet werden kann.
Optimierung von geodätischen Netzen mit Simulated Annealing
Instituts für Landesvermessung und Ingenieurgeodäsie, Abteilung Geoinformation und Landesvermessung, TU-Wien, 1998. Begutachter: Univ.Prof. Dr. A Frank, Betreuer: Dipl.-Ing. P. Haunold.
Kurzfassung/Abstract
Die Optimierung von geodätischen Netzen, zählt seit jeher zu den anspruchsvollsten Aufgaben eines Geodäten. Die Planung eines genauen und zuverlässigen Netzes, das zusätzlich wenig Aufwand verursacht, erfordert hohes Können und viel Erfahrung des Planers. Der Designprozeß wird bisher nur spärlich mit Computern unterstützt. Rechner werden hauptsächlich für die Analyse des Netzdesigns verwendet. Sie sind aber nicht in der Lage Verbesserungsvorschläge zu geben.
In der vorliegenden Arbeit wird gezeigt, daß eine vollkommen automatische Optimierung möglich ist. Dazu wird das Netzdesign als kombinatorisches Problem betrachtet. Im Falle einer Optimierung des Beobachtungsplans wird die Kombination von Messungen gesucht, die den geringsten Meßaufwand erfordert, aber dennoch vorgegebene Qualitätskriterien erfüllt. Man muß für die automatische Optimierung also alle möglichen Beobachtungen explizit angeben.
Sowohl die notwendigen Qualitätskriterien als auch eine verwendbare Zielfunktion für die Optimierung werden in der Arbeit beschrieben. Es stellt sich heraus, daß die Zielfunktion mehrere Optima hat und außerdem Sprungstellen aufweist. Als Optimierungsalgorithmus wird aus diesem Grund Simulated Annealing (SA) vorgeschlagen. Dieses erlaubt es Optima einer diskreten Funktion mit mehreren Suboptima zu finden. SA wird in der Arbeit nicht als Optimierungsalgorithmus eingesetzt, da SA sonst zu lange Rechenzeiten erfordert. Vielmehr wird eine Approximation des tatsächlichen Optimums angestrebt.
Der vorgeschlagene Optimierungsalgorithmus wird anhand mehrerer Beispiele getestet. Dabei zeigt sich die Verwendbarkeit der Methode auch für die tägliche Praxis.
Die Optimierung von geodätischen Netzen, zählt seit jeher zu den anspruchsvollsten Aufgaben eines Geodäten. Die Planung eines genauen und zuverlässigen Netzes, das zusätzlich wenig Aufwand verursacht, erfordert hohes Können und viel Erfahrung des Planers. Der Designprozeß wird bisher nur spärlich mit Computern unterstützt. Rechner werden hauptsächlich für die Analyse des Netzdesigns verwendet. Sie sind aber nicht in der Lage Verbesserungsvorschläge zu geben.
In der vorliegenden Arbeit wird gezeigt, daß eine vollkommen automatische Optimierung möglich ist. Dazu wird das Netzdesign als kombinatorisches Problem betrachtet. Im Falle einer Optimierung des Beobachtungsplans wird die Kombination von Messungen gesucht, die den geringsten Meßaufwand erfordert, aber dennoch vorgegebene Qualitätskriterien erfüllt. Man muß für die automatische Optimierung also alle möglichen Beobachtungen explizit angeben.
Sowohl die notwendigen Qualitätskriterien als auch eine verwendbare Zielfunktion für die Optimierung werden in der Arbeit beschrieben. Es stellt sich heraus, daß die Zielfunktion mehrere Optima hat und außerdem Sprungstellen aufweist. Als Optimierungsalgorithmus wird aus diesem Grund Simulated Annealing (SA) vorgeschlagen. Dieses erlaubt es Optima einer diskreten Funktion mit mehreren Suboptima zu finden. SA wird in der Arbeit nicht als Optimierungsalgorithmus eingesetzt, da SA sonst zu lange Rechenzeiten erfordert. Vielmehr wird eine Approximation des tatsächlichen Optimums angestrebt.
Der vorgeschlagene Optimierungsalgorithmus wird anhand mehrerer Beispiele getestet. Dabei zeigt sich die Verwendbarkeit der Methode auch für die tägliche Praxis.
Sketch Maps and GIS Output
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Geoinformation und Landesvermessung, TU-Wien, 1998. Begutachter: Univ.Prof. Dr. W. Kuhn, Betreuer: Dr. S. Timpf.
Kurzfassung/Abstract
Diese Diplomarbeit analysiert Raumskizzen, die von mehreren Gruppen von Personen gezeichnet wurden. Das Ziel ist es, die Charakteristiken von Skizzen durch eine geringe Anzahl von Parametern zu bestimmen. Von diesen Charakteristiken wird darauf geschlossen, wie intuitive Repräsentationen des Raumes aussehen und wie das Wissen über solche Repräsentationen verwendet werden kann, um Applikationen eines Geographischen Informationssystems (GIS) zu verbessern. Dabei wird besonderes Augenmerk auf die Verwendung der Ergebnisse für die Ausgabe eines GIS gelegt.
Die Versuchspersonen hatten die Aufgabe die Umgebung in der sie sich aufhielten zu skizzieren. Die gesammelten Skizzen werden durch mehrere Parameter beschrieben und mit statistischen Methoden untersucht. Die Parameter sind Dimension, Beschriftung, Fläche, Bezugssystem, 'Ich bin hier' Zeichen, Kenntnis der Umgebung, Anzahl der Ansichten und Zoom. Die Hypothese der Arbeit ist, daß man Gruppen von Skizzen mit ähnlichem Aussehen finden kann. Die Hypothese wird geprüft, indem die Verteilung der Skizzen in bezug auf die Parameter untersucht werden. Zuerst wird jeder Parameter einzeln betrachtet, dann jeweils zwei Parameter und zuletzt alle Parameter mit Hilfe von Cluster Analyse.
Die Resultate der Analyse zeigen, daß die Skizzen drei Cluster bilden, in denen jeweils viele Skizzen zusammengefaßt werden, die ein ähnliches Erscheinungsbild haben. Die Parameterwerte der Skizzen in den drei Hauptclustern unterscheiden sich hauptsächlich in der Fläche die gezeigt wird und in dem gewählten Bezugssystem. In weiteren Clustern befinden sich nur wenige Skizzen mit einem völlig verschiedenem Erscheinungsbild. Mit Hilfe der Eigenschaften der Skizzen in den großen Clustern kann man das generelle Aussehen von Skizzen beschreiben. Ein Großteil der Skizzen sind in 2D gezeichnet. Mehr als 1/3 zeigen die nähere Umgebung und fast die Hälfte benützt ein allozentrisches Bezugssystem. Skizzen mit mehr als einer Ansicht haben zu mehr als 80 % zwei oder drei Ansichten.
Der abschließende Teil der Arbeit listet auf, welche Schlüsse aus den Ergebnissen der Analyse für die Verbesserung von GIS gezogen werden können. Es hat sich gezeigt, daß die Formulierung der Aufgabe für das Aussehen einer Skizze sehr wichtig ist. Daraus folgt, daß Aufgabenanalyse (Task Analysis) ein wichtiger Forschungszweig ist, der hilft, daß die Ausgabe eines GIS den Wünschen und Erwartungen des Nutzers entspricht.
Diese Diplomarbeit analysiert Raumskizzen, die von mehreren Gruppen von Personen gezeichnet wurden. Das Ziel ist es, die Charakteristiken von Skizzen durch eine geringe Anzahl von Parametern zu bestimmen. Von diesen Charakteristiken wird darauf geschlossen, wie intuitive Repräsentationen des Raumes aussehen und wie das Wissen über solche Repräsentationen verwendet werden kann, um Applikationen eines Geographischen Informationssystems (GIS) zu verbessern. Dabei wird besonderes Augenmerk auf die Verwendung der Ergebnisse für die Ausgabe eines GIS gelegt.
Die Versuchspersonen hatten die Aufgabe die Umgebung in der sie sich aufhielten zu skizzieren. Die gesammelten Skizzen werden durch mehrere Parameter beschrieben und mit statistischen Methoden untersucht. Die Parameter sind Dimension, Beschriftung, Fläche, Bezugssystem, 'Ich bin hier' Zeichen, Kenntnis der Umgebung, Anzahl der Ansichten und Zoom. Die Hypothese der Arbeit ist, daß man Gruppen von Skizzen mit ähnlichem Aussehen finden kann. Die Hypothese wird geprüft, indem die Verteilung der Skizzen in bezug auf die Parameter untersucht werden. Zuerst wird jeder Parameter einzeln betrachtet, dann jeweils zwei Parameter und zuletzt alle Parameter mit Hilfe von Cluster Analyse.
Die Resultate der Analyse zeigen, daß die Skizzen drei Cluster bilden, in denen jeweils viele Skizzen zusammengefaßt werden, die ein ähnliches Erscheinungsbild haben. Die Parameterwerte der Skizzen in den drei Hauptclustern unterscheiden sich hauptsächlich in der Fläche die gezeigt wird und in dem gewählten Bezugssystem. In weiteren Clustern befinden sich nur wenige Skizzen mit einem völlig verschiedenem Erscheinungsbild. Mit Hilfe der Eigenschaften der Skizzen in den großen Clustern kann man das generelle Aussehen von Skizzen beschreiben. Ein Großteil der Skizzen sind in 2D gezeichnet. Mehr als 1/3 zeigen die nähere Umgebung und fast die Hälfte benützt ein allozentrisches Bezugssystem. Skizzen mit mehr als einer Ansicht haben zu mehr als 80 % zwei oder drei Ansichten.
Der abschließende Teil der Arbeit listet auf, welche Schlüsse aus den Ergebnissen der Analyse für die Verbesserung von GIS gezogen werden können. Es hat sich gezeigt, daß die Formulierung der Aufgabe für das Aussehen einer Skizze sehr wichtig ist. Daraus folgt, daß Aufgabenanalyse (Task Analysis) ein wichtiger Forschungszweig ist, der hilft, daß die Ausgabe eines GIS den Wünschen und Erwartungen des Nutzers entspricht.
Einbindung des Branchenverzeichnisses in Autonavigationssysteme
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung für Geoinformation, TU-Wien, 1998. Begutachters: Univ.Prof. Dr. A. Frank, Betreuer: Dr.-Ing. St. Winter.
Kurzfassung/Abstract
Automobilnavigationssysteme (ANS) ersetzen immer öfter Straßenkarten. Dadurch kann der Fahrer seine Aufmerksamkeit dem Verkehr widmen, anstatt auf der Karte nach dem weiteren Weg zu suchen. Als Start- und Endpunkt einer Reise gibt man je eine Adresse an. Eine logische Weiterentwicklung wäre die Einbindung eines Branchenverzeichnisses in Navigationssysteme. Der Autofahrer kann damit Zwischenpunkte in Form von Branchen angeben: "Auf dem Weg von A nach B möchte ich bei einem Blumengeschäft vorbei.".
Zur Lösung einer solchen Aufgabe müssen verschiedene Algorithmen entwickelt werden, die die zugrundeliegenden Straßen- und Branchendaten verknüpfen und die Suche nach dem besten Weg durchführen. Dazu müssen zunächst die Straßendaten in einem Straßengraph gespeichert werden. Dieser Graph ist gerichtet und gewichtet, wobei sich die Richtung aus den Richtungsfahrbahnen der einzelnen Straßen ergibt. Die Gewichte im Graphen lassen sich aus mehreren Faktoren errechnen, die mit den Straßendaten gespeichert sind: aus der Länge eines Straßenabschnittes, der Straßenkategorie, der Benutzergruppe, aus temporären Fahrverboten oder aus der Tageszeit. Welche Faktoren bei der Berechnung tatsächlich verwendet werden, hängt von der Komplexität des Datensatzes ab. Es gibt Gewichte für die Kanten, die die Straßenabschnitte darstellen, aber auch für die Knoten, die Kreuzungen repräsentieren.
Nach der Eingabe der Start-, End- und eventueller Zwischenpunkte müssen diese Orte im Straßengraph gefunden werden. Dies geschieht mit Hilfe einer Address Matching-Funktion. Sind Branchen als Zwischenpunkte angegeben, so müssen zunächst die Adressen sämtlicher Firmen dieser Branchen ermittelt werden. Die Anzahl der Firmen einer Branche kann sehr groß werden und damit auch die Zeit zur Berechnung einer Route. Daher müssen aus allen Firmen einer Branche jene ausgewählt werden, die zusammen mit den bisher bekannten Punkten den kürzesten Weg ergeben. Die Heuristiken, die diese Auswahl durchführen, arbeiten mit verschiedenen Methoden, je nach Präferenz des Benutzers. Dieser kann beispielsweise verlangen, daß alle Branchen-Zwischenpunkte in der Nähe des Startpunktes liegen. In diesem Fall wird eine kreisförmige Zelle um den Startpunkt gelegt und alle Firmen bzw. deren zugeordnete Kanten untersucht, ob sie innerhalb dieses Kreises liegen. Andere Möglichkeiten sind ein Kreis um den Endpunkt, die Suche nach Firmen, die auf dem Weg vom Start- zum Endpunkt liegen oder eine Pufferzone zwischen Start- und Endpunkt. Durch Heuristiken kann es passieren, daß die gefundene Route nur eine suboptimale ist.
Zur Berechnung einer Route bei freier Reihenfolge der Zwischenpunkte werden zunächst alle möglichen Kombinationen der fixen Punkte und der gefundenen Brancheneinträge aufgestellt. Dann werden für jede dieser Kombinationen mit Hilfe eines "Traveling Salesman"-Algorithmus alle möglichen Abfolgen der Zwischenpunkte berechnet und diejenige mit dem kürzesten Weg gespeichert. Jener Weg mit der kürzesten Länge unter allen berechneten wird als gefundene Route ausgegeben.
Die beschriebenen Algorithmen sind in einem Programm implementiert worden, das die Eingabe von Punkten in Form von Adressen oder Branchen, die Berechnung einer Route sowie die Ausgabe ebendieser ermöglicht.
Automobilnavigationssysteme (ANS) ersetzen immer öfter Straßenkarten. Dadurch kann der Fahrer seine Aufmerksamkeit dem Verkehr widmen, anstatt auf der Karte nach dem weiteren Weg zu suchen. Als Start- und Endpunkt einer Reise gibt man je eine Adresse an. Eine logische Weiterentwicklung wäre die Einbindung eines Branchenverzeichnisses in Navigationssysteme. Der Autofahrer kann damit Zwischenpunkte in Form von Branchen angeben: "Auf dem Weg von A nach B möchte ich bei einem Blumengeschäft vorbei.".
Zur Lösung einer solchen Aufgabe müssen verschiedene Algorithmen entwickelt werden, die die zugrundeliegenden Straßen- und Branchendaten verknüpfen und die Suche nach dem besten Weg durchführen. Dazu müssen zunächst die Straßendaten in einem Straßengraph gespeichert werden. Dieser Graph ist gerichtet und gewichtet, wobei sich die Richtung aus den Richtungsfahrbahnen der einzelnen Straßen ergibt. Die Gewichte im Graphen lassen sich aus mehreren Faktoren errechnen, die mit den Straßendaten gespeichert sind: aus der Länge eines Straßenabschnittes, der Straßenkategorie, der Benutzergruppe, aus temporären Fahrverboten oder aus der Tageszeit. Welche Faktoren bei der Berechnung tatsächlich verwendet werden, hängt von der Komplexität des Datensatzes ab. Es gibt Gewichte für die Kanten, die die Straßenabschnitte darstellen, aber auch für die Knoten, die Kreuzungen repräsentieren.
Nach der Eingabe der Start-, End- und eventueller Zwischenpunkte müssen diese Orte im Straßengraph gefunden werden. Dies geschieht mit Hilfe einer Address Matching-Funktion. Sind Branchen als Zwischenpunkte angegeben, so müssen zunächst die Adressen sämtlicher Firmen dieser Branchen ermittelt werden. Die Anzahl der Firmen einer Branche kann sehr groß werden und damit auch die Zeit zur Berechnung einer Route. Daher müssen aus allen Firmen einer Branche jene ausgewählt werden, die zusammen mit den bisher bekannten Punkten den kürzesten Weg ergeben. Die Heuristiken, die diese Auswahl durchführen, arbeiten mit verschiedenen Methoden, je nach Präferenz des Benutzers. Dieser kann beispielsweise verlangen, daß alle Branchen-Zwischenpunkte in der Nähe des Startpunktes liegen. In diesem Fall wird eine kreisförmige Zelle um den Startpunkt gelegt und alle Firmen bzw. deren zugeordnete Kanten untersucht, ob sie innerhalb dieses Kreises liegen. Andere Möglichkeiten sind ein Kreis um den Endpunkt, die Suche nach Firmen, die auf dem Weg vom Start- zum Endpunkt liegen oder eine Pufferzone zwischen Start- und Endpunkt. Durch Heuristiken kann es passieren, daß die gefundene Route nur eine suboptimale ist.
Zur Berechnung einer Route bei freier Reihenfolge der Zwischenpunkte werden zunächst alle möglichen Kombinationen der fixen Punkte und der gefundenen Brancheneinträge aufgestellt. Dann werden für jede dieser Kombinationen mit Hilfe eines "Traveling Salesman"-Algorithmus alle möglichen Abfolgen der Zwischenpunkte berechnet und diejenige mit dem kürzesten Weg gespeichert. Jener Weg mit der kürzesten Länge unter allen berechneten wird als gefundene Route ausgegeben.
Die beschriebenen Algorithmen sind in einem Programm implementiert worden, das die Eingabe von Punkten in Form von Adressen oder Branchen, die Berechnung einer Route sowie die Ausgabe ebendieser ermöglicht.
Kartographische Interaktion im Internet
Institut für Kartographie und Reproduktionstechnik, TU-Wien, 1998. Begutachter: Univ.Prof. Dr. F. Kelnhofer, Betreuer: Dr. G. Gartner.
Kurzfassung/Abstract
Im heutigen Computerzeitalter stellt die weltweite Vernetzung von EDV-Maschinen ein wichtiges Hilfsmittel für die verschiedensten Disziplinen und Wissenschaftsgebiete dar. Auch im Bereich der Kartographie werden Überlegungen zur Verwendung dieses Werkzeuges angestellt. Dabei liegt ein Schwerpunkt im Aufbau von Applikationen mit Bildschirmkarten, wobei räumliche Daten via Netz, im besonderen dem Internet, veröffentlicht und einer breiten Masse zugänglich gemacht werden können. Durch die rasche Entwicklung der Realisierungs- und Implementationsmöglichkeiten, die ermöglicht, daß eine Bildschirmkarte nicht nur angesehen, sondern auch vom Leser dieser Seite manipuliert werden kann, wurde eine enorme Produktionsflut solcher Karten ausgelöst, die dann Bezeichnungen wie "interaktive Karte" oder gar "WebTop GIS" (Lehto, 1997) erhielten.
In der vorliegenden Arbeit soll nun näher auf diese Produkte eingegangen und überprüft werden, welche Interaktion diese dem Systemnutzer anbieten. Dabei ist es vorerst notwendig, allgemein Begriffe wie Interaktion und dann speziell kartographische Interaktion zu definieren. Die aus dieser Definitionsgebung folgenden Konsequenzen in bezug auf Graphik und Layout sowie die Wirkung der Bildschirmkarte werden in diesem Zusammenhang ebenfalls durchleuchtet und diskutiert.
Besonderheiten des Mediums Internet sind in diesem Rahmen natürlich von großer Bedeutung und bedürfen daher ebenfalls einer Analyse. Dabei werden wichtige Hinweise für den Umgang mit dieser neuen Technologie hinsichtlich der Manipulationsmöglichkeiten mit interaktiven Karten gegeben. Ausgehend von diesen Festlegungen wird in einer Evaluierung von einigen Produkten der heutige Stand dokumentiert und bewertet.
Bevor dann Schlüsse gezogen und Zukunftsperspektiven für diesen Bereich der neuen Entwicklung der Kartographie angestellt werden, wird anhand eines eigenen Programmierbeispiels kartographische Interaktion im Internet realisiert und auf die zu achtenden Probleme beim Erstellen einer HTML-Seite mit Interaktion und Karten hingewiesen.
Im heutigen Computerzeitalter stellt die weltweite Vernetzung von EDV-Maschinen ein wichtiges Hilfsmittel für die verschiedensten Disziplinen und Wissenschaftsgebiete dar. Auch im Bereich der Kartographie werden Überlegungen zur Verwendung dieses Werkzeuges angestellt. Dabei liegt ein Schwerpunkt im Aufbau von Applikationen mit Bildschirmkarten, wobei räumliche Daten via Netz, im besonderen dem Internet, veröffentlicht und einer breiten Masse zugänglich gemacht werden können. Durch die rasche Entwicklung der Realisierungs- und Implementationsmöglichkeiten, die ermöglicht, daß eine Bildschirmkarte nicht nur angesehen, sondern auch vom Leser dieser Seite manipuliert werden kann, wurde eine enorme Produktionsflut solcher Karten ausgelöst, die dann Bezeichnungen wie "interaktive Karte" oder gar "WebTop GIS" (Lehto, 1997) erhielten.
In der vorliegenden Arbeit soll nun näher auf diese Produkte eingegangen und überprüft werden, welche Interaktion diese dem Systemnutzer anbieten. Dabei ist es vorerst notwendig, allgemein Begriffe wie Interaktion und dann speziell kartographische Interaktion zu definieren. Die aus dieser Definitionsgebung folgenden Konsequenzen in bezug auf Graphik und Layout sowie die Wirkung der Bildschirmkarte werden in diesem Zusammenhang ebenfalls durchleuchtet und diskutiert.
Besonderheiten des Mediums Internet sind in diesem Rahmen natürlich von großer Bedeutung und bedürfen daher ebenfalls einer Analyse. Dabei werden wichtige Hinweise für den Umgang mit dieser neuen Technologie hinsichtlich der Manipulationsmöglichkeiten mit interaktiven Karten gegeben. Ausgehend von diesen Festlegungen wird in einer Evaluierung von einigen Produkten der heutige Stand dokumentiert und bewertet.
Bevor dann Schlüsse gezogen und Zukunftsperspektiven für diesen Bereich der neuen Entwicklung der Kartographie angestellt werden, wird anhand eines eigenen Programmierbeispiels kartographische Interaktion im Internet realisiert und auf die zu achtenden Probleme beim Erstellen einer HTML-Seite mit Interaktion und Karten hingewiesen.
Trajektorienbestimmung mittels differentiellem GPS und digitaler Straßenkarte - Möglichkeiten und Grenzen
Abteilung Positionierung und Navigation, TU-Graz, 1998. Begutachter: Univ.Prof. Dr. H. Lichtenegger.
Kurzfassung/Abstract
In der Fahrzeug-Navigation wurden in den letzten Jahren zahlreiche neue und innovative Methoden entwickelt, vorgestellt und implementiert. Die Diplomarbeit konzentriert sich auf den Ansatz, als Meßmittel ausschließlich differentielles GPS in Kombination mit einer digitalen Straßenkarte einzusetzen. Dies ermöglicht einerseits, die Anzahl der nötigen Meßmittel zu reduzieren und andererseits, Trajektorien auf einfache Art und Weise darzustellen. Dabei wurde vor allem auf Echtzeit-Anwendung Wert gelegt. Bereits vorhandene Software lieferte zum Teil Anregungen für die weitere Durchführung.
Die vorliegende Arbeit ist speziell auf urbanes Gebiet maßgeschneidert und gibt eine Übersicht über Möglichkeiten, was sowohl die geeigneten Geräte und DGPS-Dienste als auch die Verarbeitung der Meßdaten betrifft. Die Verarbeitung erfolgte mit Hilfe eines Kalmanfilters und eines Map Matching Algorithmus. Hierzu wurde eine Reihe von Programmen in Turbo Pascal 7.0 erstellt.
Der vorgestellte Ansatz wurde für einen Teil des Grazer Stadtgebietes praktisch erprobt, wobei die Visualisierung der Trajektorie in Echtzeit auf einem Notebook erfolgte.
In der Fahrzeug-Navigation wurden in den letzten Jahren zahlreiche neue und innovative Methoden entwickelt, vorgestellt und implementiert. Die Diplomarbeit konzentriert sich auf den Ansatz, als Meßmittel ausschließlich differentielles GPS in Kombination mit einer digitalen Straßenkarte einzusetzen. Dies ermöglicht einerseits, die Anzahl der nötigen Meßmittel zu reduzieren und andererseits, Trajektorien auf einfache Art und Weise darzustellen. Dabei wurde vor allem auf Echtzeit-Anwendung Wert gelegt. Bereits vorhandene Software lieferte zum Teil Anregungen für die weitere Durchführung.
Die vorliegende Arbeit ist speziell auf urbanes Gebiet maßgeschneidert und gibt eine Übersicht über Möglichkeiten, was sowohl die geeigneten Geräte und DGPS-Dienste als auch die Verarbeitung der Meßdaten betrifft. Die Verarbeitung erfolgte mit Hilfe eines Kalmanfilters und eines Map Matching Algorithmus. Hierzu wurde eine Reihe von Programmen in Turbo Pascal 7.0 erstellt.
Der vorgestellte Ansatz wurde für einen Teil des Grazer Stadtgebietes praktisch erprobt, wobei die Visualisierung der Trajektorie in Echtzeit auf einem Notebook erfolgte.
Detection and Elimination of Distortions in GPS Phase Measurements
Institut für Angewandte Geodäsie, Abteilung lngenieurvermessung und Meßtechnik, TU Graz, 1998. Begutachter: o.Univ.Prof. Dr. F.K. Brunner.
Kurzfassung/Abstract
Beside Selective Availability, multipath is regarded as the major error source in GPS (Global Positioning System) measurements. However, in some cases a different kind of distortion of phase measurements was observed: Diffraction caused by solid obstacles, like houses, or diffuse ones, like bushes. The aim of this project was to develop an algorithm to prevent or minimise the influence of such signals on the final position values.
An overview of the most common error sources in phase measurements and their effects on phase data, and subsequently on the results, is given. The existing methods to detect, mitigate and model multipath are presented. Diffraction of microwaves is explained and an introduction to its modelling is given.
Data sets made available by a surveying consulting firm showed severe biases caused by buildings in the immediate vicinity of the GPS antenna. Further experiments were performed to collect additional data in a well- known surrounding.
A new weighting technique, based on the information of the signal quality provided by the signal-to-noise ratio (SNR), was developed. This method proved to be successful as long as the elevation dependence of the SNR was considered and a sufficiently strong satellite geometry remained to get a reliable solution. The advantage of this weighting technique is that it does not need any user interaction.
Beside Selective Availability, multipath is regarded as the major error source in GPS (Global Positioning System) measurements. However, in some cases a different kind of distortion of phase measurements was observed: Diffraction caused by solid obstacles, like houses, or diffuse ones, like bushes. The aim of this project was to develop an algorithm to prevent or minimise the influence of such signals on the final position values.
An overview of the most common error sources in phase measurements and their effects on phase data, and subsequently on the results, is given. The existing methods to detect, mitigate and model multipath are presented. Diffraction of microwaves is explained and an introduction to its modelling is given.
Data sets made available by a surveying consulting firm showed severe biases caused by buildings in the immediate vicinity of the GPS antenna. Further experiments were performed to collect additional data in a well- known surrounding.
A new weighting technique, based on the information of the signal quality provided by the signal-to-noise ratio (SNR), was developed. This method proved to be successful as long as the elevation dependence of the SNR was considered and a sufficiently strong satellite geometry remained to get a reliable solution. The advantage of this weighting technique is that it does not need any user interaction.
CCD Astrometrie zur Beobachtung künstlicher Erdsatelliten
Institut für Theoretische Geodäsie und Geophysik, Abteilung Theoretische Geophysik, TU-Wien, 1998. Begutachter: Univ.Prof. Dr. K. Bretterbauer, Betreuer: Dr. R. Weber.
Kurzfassung/Abstract
Die vorliegende Arbeit befaßt sich mit der Messung von Stern- und Satellitenpositionen mittels einer CCD-Kamera. Der praktische Teil der Themenstellung umfaßte die gezielte Handhabung der Kamera sowie die Durchführung von Beobachtungen am ballistischen Meßkamerasystem der Satellitenstation Graz-Lustbühel. Durch Messungen von Sternen unterschiedlichen Spektraltyps sollte untersucht werden, ob eine Berücksichtigung der Farbrefraktion die Genauigkeit der berechneten Sternpositionen steigert. Die Prüfung der erreichbaren Richtungs-genauigkeit obiger Meßsysteme erfolgte durch die Überwachung zweier bereits außer Dienst gestellter Satelliten nahe des geostationären Ringes, die anhand von Daten der Europäischen Weltraumbehörde (ESA) ausgewählt wurden. Erstmals standen dieser Arbeit mit Hipparcos und Tycho stellare Referenzsysteme mit einer inneren Genauigkeit von 1mas zur Verfügung.
Diese Arbeit basiert auf Vorarbeiten, die von Hr. Dr. Ploner im Zuge seiner Dissertation durchgeführt worden sind. Das dabei erstellte Programm CCD wurde für die Auswertungen der Aufnahmen verwendet und für die Aufgabenstellung dieser Arbeit neu adaptiert.
Um Refraktionseinflüsse gering zu halten, erfolgte die Auswahl des, für das vorhandene Beobachtungssystem (Kombination CCD-Kamera und ballistische Meßkamera), optimalen Auswertemodells auf der Grundlage möglichst zenitnaher Sternfelder. Zur Berechnung von Bildkoordinaten erwies sich die Lichtschwerpunktbildung als das genaueste Verfahren. Die Transformation der Bild- in Tangentialkoordinaten wird am besten durch eine 8-Parameter-Transformation beschrieben.
Die Untersuchung der Farbrefraktion durch Beobachtung von Sternen mit möglichst unterschiedlichem Spektraltyp in großen Zenitdistanzen ergab keine wesentliche Genauigkeitssteigerung der Sternpositionen. Da die Intensitätsverteilung der Sternstrahlung auch mit dem Planck'schen Gesetz nur angenähert werden kann, ergibt sich - im Gegensatz zur Berechnung mit einer mittleren Wellenlänge - ein zu großer Farbrefraktionsanteil. Konstante Differenzen zum wahren Refraktionsanteil werden durch die Transformationsparameter aufgenommen. Die verbleibenden Variationen im Bereich von 0,2" sind unter Bedacht eines etwa gleich großen Meßfehlers bei einer Pixelgröße von 6,6" schwer nachzuweisen.
Auf Basis der Beobachtungen der beiden abgeschalteten geostationären Satelliten konnte eine Bahnbestimmung durchgeführt werden. Die erzielte Richtungsgenauigkeit für die Satellitenpositionen lag bei etwa +/-0,5".
Die vorliegende Arbeit befaßt sich mit der Messung von Stern- und Satellitenpositionen mittels einer CCD-Kamera. Der praktische Teil der Themenstellung umfaßte die gezielte Handhabung der Kamera sowie die Durchführung von Beobachtungen am ballistischen Meßkamerasystem der Satellitenstation Graz-Lustbühel. Durch Messungen von Sternen unterschiedlichen Spektraltyps sollte untersucht werden, ob eine Berücksichtigung der Farbrefraktion die Genauigkeit der berechneten Sternpositionen steigert. Die Prüfung der erreichbaren Richtungs-genauigkeit obiger Meßsysteme erfolgte durch die Überwachung zweier bereits außer Dienst gestellter Satelliten nahe des geostationären Ringes, die anhand von Daten der Europäischen Weltraumbehörde (ESA) ausgewählt wurden. Erstmals standen dieser Arbeit mit Hipparcos und Tycho stellare Referenzsysteme mit einer inneren Genauigkeit von 1mas zur Verfügung.
Diese Arbeit basiert auf Vorarbeiten, die von Hr. Dr. Ploner im Zuge seiner Dissertation durchgeführt worden sind. Das dabei erstellte Programm CCD wurde für die Auswertungen der Aufnahmen verwendet und für die Aufgabenstellung dieser Arbeit neu adaptiert.
Um Refraktionseinflüsse gering zu halten, erfolgte die Auswahl des, für das vorhandene Beobachtungssystem (Kombination CCD-Kamera und ballistische Meßkamera), optimalen Auswertemodells auf der Grundlage möglichst zenitnaher Sternfelder. Zur Berechnung von Bildkoordinaten erwies sich die Lichtschwerpunktbildung als das genaueste Verfahren. Die Transformation der Bild- in Tangentialkoordinaten wird am besten durch eine 8-Parameter-Transformation beschrieben.
Die Untersuchung der Farbrefraktion durch Beobachtung von Sternen mit möglichst unterschiedlichem Spektraltyp in großen Zenitdistanzen ergab keine wesentliche Genauigkeitssteigerung der Sternpositionen. Da die Intensitätsverteilung der Sternstrahlung auch mit dem Planck'schen Gesetz nur angenähert werden kann, ergibt sich - im Gegensatz zur Berechnung mit einer mittleren Wellenlänge - ein zu großer Farbrefraktionsanteil. Konstante Differenzen zum wahren Refraktionsanteil werden durch die Transformationsparameter aufgenommen. Die verbleibenden Variationen im Bereich von 0,2" sind unter Bedacht eines etwa gleich großen Meßfehlers bei einer Pixelgröße von 6,6" schwer nachzuweisen.
Auf Basis der Beobachtungen der beiden abgeschalteten geostationären Satelliten konnte eine Bahnbestimmung durchgeführt werden. Die erzielte Richtungsgenauigkeit für die Satellitenpositionen lag bei etwa +/-0,5".
Routing-Anwendung in einem kommerziellen Geoinformationssystem mit GDF Straßendaten
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU Graz, 1998. Betreuer: Prof. Dr. N. Bartelme.
Kurzfassung/Abstract
Mit der zunehmenden Verbreitung von verkehrstelematischen Anwendungen steigt auch der Bedarf an digitalen Straßendaten und darauf aufbauender Netzwerkanalysen. Routingsysteme sind wichtige Bestandteile von Fahrzeugnavigationssystemen und basieren auf graphentheoretischen Algorithmen. Die Ergebnisse der Routingmodule hängen wesentlich von der Implementierung der Algorithmen und der Datenmodelle ab. Mit dem Standard GDF (Geographic Data File) ist die Grundlage für eine umfassende Datenmodellierung - auch in Hinsicht auf Verkehrsrestriktionen wie Einbahnen und Abbiegeverbote - gegeben.
Die Diplomarbeit faßt Aspekte der Kürzesten Wegesuche in Straßengraphen zusammen und untersucht eine Routing-Anwendung innerhalb des kommerziellen Geoinformationssystems Smallworld GIS mit der zugehörigen GDF Schnittstelle.
Mit der zunehmenden Verbreitung von verkehrstelematischen Anwendungen steigt auch der Bedarf an digitalen Straßendaten und darauf aufbauender Netzwerkanalysen. Routingsysteme sind wichtige Bestandteile von Fahrzeugnavigationssystemen und basieren auf graphentheoretischen Algorithmen. Die Ergebnisse der Routingmodule hängen wesentlich von der Implementierung der Algorithmen und der Datenmodelle ab. Mit dem Standard GDF (Geographic Data File) ist die Grundlage für eine umfassende Datenmodellierung - auch in Hinsicht auf Verkehrsrestriktionen wie Einbahnen und Abbiegeverbote - gegeben.
Die Diplomarbeit faßt Aspekte der Kürzesten Wegesuche in Straßengraphen zusammen und untersucht eine Routing-Anwendung innerhalb des kommerziellen Geoinformationssystems Smallworld GIS mit der zugehörigen GDF Schnittstelle.