- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2000
Abschlussarbeiten 2000
Wissensbasierte 3D-Oberflächenrekonstruktion
Technisch-Naturwissenschaftliche Fakultät der TU Wien, 2000. Begutachter: Univ.Prof. Dr. Karl Kraus und Univ.Prof. Dr. Helmut Pottmann.
Dipl.-Ing. David Heitzinger wurde am 21. Januar 2000 an der Technisch-Naturwissenschaftlichen Fakultät der TU Wien mit der Dissertation "Wissensbasierte 3D-Oberflächenrekonstruktion" zum Dr.tech. promoviert. Prüfer waren: Univ.Prof. Dr. Karl Kraus, Institut für Photogrammetrie und Fernerkundung der TU Wien, und Univ.Prof. Dr. Helmut Pottmann, Institut für Geometrie der TU Wien.
Kurzfassung/Abstract
Die Rekonstruktion von komplexen Flächen des R 3 ist in der Photogrammetrie und dem Vermessungswesen noch ein offenes Problem. Andere Disziplinen, wie CAD, Computerwissenschaften, Medizin, Geologie, etc., haben Verfahren für diese Aufgabe entwickelt, maßgeschneidert für ihre Anwendungen und Bedingungen. Aber zur Rekonstruktion von komplexen, topographischen Flächen (Felsstürze, Steinbrüche, Mauern, Häuser) gibt es noch kaum zufriedenstellende Lösungen. Relevante Forschung in der Photogrammetrie konzentriert sich vor allem auf die automatische Rekonstruktion von künstlichen Gebäuden, wo bereits gute Erfolge erzielt wurden. Problemstellung: Gegeben sei eine Menge von Punkten des R 3 und eine Menge von Linien zu diesen Punkten. Die Punkte wurden an der Oberfläche eines beliebigen Objekts gemessen, mit berührenden, optischen, akustischen, magnetischen oder kapazitativen Verfahren. Aus diesen Daten ist die ursprüngliche Oberfläche so gut wie möglich zu rekonstruieren. Gesucht sei eine Triangulation der Daten. Diese Triangulation dient als Grundlage zur eigentlichen Flächenrepräsentation: Abbildung der topologischen Dreiecke auf geometrische Dreiecke oder auf allgemeinere dreiecksförmige Flächenstücke (patches). Zur Triangulation von Punkten des R 3 gibt es noch keine Standardlösung, wie es etwa die Delaunay-Triangulation im R 2 ist. Lösungsansatz: Es wird versucht, die gesamte, vorhandene Information über das Objekt und dessen Vermessung zu verwenden. Diese Information besteht aus expliziter Information, wie z.B. die gemessenen Punktkoordinaten. Zusätzlich gibt es Information über die Fläche, etwa über deren Form und Topologie. Teil dieserInformation können durchaus einschränkende Bedingungen sein, etwa das Verbot von Selbstschnitten der Fläche oder Einschränkungen, resultierend aus den Eigenschaften einer gültigen Triangulation. Wichtige Schlüsse können aus der Art der Datenerfassung (photogrammetrische Auswertung, Höhenlinienmessung, Nahbereichs-Laser oder flugzeuggestützte Laser) gezogen werden. Jede vorhandene Information, sicher oder unsicher, eindeutig oder widersprüchlich, bedingt oder unbedingt, soll verwendet werden. Als erster Schritt der Triangulation wird eine Tetraedervermaschung berechnet. Der Grund hierfür ist vor allem die Einschränkung der Vielfalt der möglichen Dreiecke. Von den Dreiecken, die in der Tetraedervermaschung enthalten sind, werden nun jene extrahiert, die zur Triangulation der Oberfläche gehören. Die Dreiecke werden schrittweise in kleinen Teilmengen, nämlich alle Dreiecke, benachbart zu einem bereits extrahierten Dreieck, bewertet. Diese Bewertung wendet alle vorhandene Information an. Das Ergebnis ist ein Maß (im weiteren als Evidenz bezeichnet), anhand dessen über die Flächenzugehörigkeit entschieden wird. Welche Informationen vorliegen können und wie daraus Schlüsse abgeleitet werden sollen, ist im verwendeten Wissen festgelegt. Dieses Wissen ist in Regeln formuliert, die nacheinander mit den aktuellen Daten ausgewertet werden. Zur Beurteilung werden probabilistische Methoden verwendet. Die vorhandenen Regeln stellen auch sicher, daß immer eine gültige Triangulation extrahiert wird. Regeln als Form der Wissensrepräsentation: Die Tetraedervermaschung enthält sowohl alle Dreiecke, die zur Fläche gehören, als auch jene, die nicht dazu gehören. Die Flächendreiecke werden durch Anwendung des vorhandenen Wissens von den anderen getrennt. Dieses Wissen ist in einzelne Regeln verpackt. Jede Regel inkorporiert einen kleinen Teil des vorhandenen Wissens und soll möglichst unabhängig von allen anderen Regeln sein. Zur Ableitung einer Diagnose wird ein vorwärts verketteter Mechanismus verwendet, d.h. ausgehend von den Daten werden jene Regeln gesucht, die ausgeführt werden können. Zur Effizienzsteigerung der Methode wird ein Regelbaum verwendet, der die Abhängigkeiten der Regeln untereinander und damit die Reihenfolge der Abarbeitung festlegt. Dennoch muß das System so flexibel sein, daß leicht Regeln hinzugefügt, geändert und entfernt werden können. Probabilistische Diagnosefindung: Innerhalb der Regeln werden verschiedene geometrische Eigenschaften der Dreiecke und deren lokaler Umgebung zur Bewertung herangezogen. Diese Eigenschaften (Symptome oder Indizien) sprechen verschieden stark für oder gegen eine Flächenzugehörigkeit. Aus dem a priori Gewicht und anhand des aktuellen Wertes des Symptoms wird die Evidenz des Symptoms für eine Diagnose (Flächenzugehörigkeit: ja oder nein) berechnet. Die Evidenzen der verschiedenen Symptome müssen zu einer Gesamtbeurteilung kombiniert werden. Dafür werden drei verschiedene Ansätze vorgestellt:
ein probabilistischer Ansatz mit dem Theorem von Bayes,
ein quasi-probabilistischer Ansatz mit dem MYCIN-Modell und
ein einfacher Ansatz nach dem INTERNIST-Modell.
Zur Diagnosefindung sind eine Reihe von Parametern notwendig: a priori Gewichte der einzelnen Symptome, wertabhängige Verteilungen der Gewichte und Schwellenwerte. Zur fundierten Bestimmung dieser Parameter steht ein Trainingsmodus zur Verfügung: die Extraktion läuft ab wie immer, aber die ultimative Entscheidung über die Flächenzugehörigkeit wird durch Vergleich mit einer Referenztriangulation gefällt. Das Ergebnis wird analysiert und aus dieser Statistik können die Parameter geschätzt werden.
Ergebnisse:
Diese Arbeit bietet eine Lösungsmöglichkeit zur Triangulation von Punkten des R 3. Hauptaugenmerk wurde dabei auf topographischen Flächen und folgende Datenerfassungsmethoden gelegt:
Automatische Messung, wie Laser Scanning oder Bildkorrelation.
Topographische Vermessung, terrestrisch oder photogrammetrisch.
Höhenlinienmessung, photogrammetrisch oder durch Digitalisieren vorhandener Karten.
Für diese Ausgangssituationen wurde die notwendige Regelbasis entwickelt. Die Extraktion von Daten aus automatischer Erfassung wurde in einem Programm umgesetzt und auf verschiedene Datensätze angewandt, wobei die rekonstruierten Flächen den gesetzten Erwartungen entsprechen. Die entwickelte Methode ist leicht erweiterbar für andere Erfassungsmethoden oder zusätzliches Wissen. Eine Reihe möglicher Erweiterungen wird besprochen.
Die Rekonstruktion von komplexen Flächen des R 3 ist in der Photogrammetrie und dem Vermessungswesen noch ein offenes Problem. Andere Disziplinen, wie CAD, Computerwissenschaften, Medizin, Geologie, etc., haben Verfahren für diese Aufgabe entwickelt, maßgeschneidert für ihre Anwendungen und Bedingungen. Aber zur Rekonstruktion von komplexen, topographischen Flächen (Felsstürze, Steinbrüche, Mauern, Häuser) gibt es noch kaum zufriedenstellende Lösungen. Relevante Forschung in der Photogrammetrie konzentriert sich vor allem auf die automatische Rekonstruktion von künstlichen Gebäuden, wo bereits gute Erfolge erzielt wurden. Problemstellung: Gegeben sei eine Menge von Punkten des R 3 und eine Menge von Linien zu diesen Punkten. Die Punkte wurden an der Oberfläche eines beliebigen Objekts gemessen, mit berührenden, optischen, akustischen, magnetischen oder kapazitativen Verfahren. Aus diesen Daten ist die ursprüngliche Oberfläche so gut wie möglich zu rekonstruieren. Gesucht sei eine Triangulation der Daten. Diese Triangulation dient als Grundlage zur eigentlichen Flächenrepräsentation: Abbildung der topologischen Dreiecke auf geometrische Dreiecke oder auf allgemeinere dreiecksförmige Flächenstücke (patches). Zur Triangulation von Punkten des R 3 gibt es noch keine Standardlösung, wie es etwa die Delaunay-Triangulation im R 2 ist. Lösungsansatz: Es wird versucht, die gesamte, vorhandene Information über das Objekt und dessen Vermessung zu verwenden. Diese Information besteht aus expliziter Information, wie z.B. die gemessenen Punktkoordinaten. Zusätzlich gibt es Information über die Fläche, etwa über deren Form und Topologie. Teil dieserInformation können durchaus einschränkende Bedingungen sein, etwa das Verbot von Selbstschnitten der Fläche oder Einschränkungen, resultierend aus den Eigenschaften einer gültigen Triangulation. Wichtige Schlüsse können aus der Art der Datenerfassung (photogrammetrische Auswertung, Höhenlinienmessung, Nahbereichs-Laser oder flugzeuggestützte Laser) gezogen werden. Jede vorhandene Information, sicher oder unsicher, eindeutig oder widersprüchlich, bedingt oder unbedingt, soll verwendet werden. Als erster Schritt der Triangulation wird eine Tetraedervermaschung berechnet. Der Grund hierfür ist vor allem die Einschränkung der Vielfalt der möglichen Dreiecke. Von den Dreiecken, die in der Tetraedervermaschung enthalten sind, werden nun jene extrahiert, die zur Triangulation der Oberfläche gehören. Die Dreiecke werden schrittweise in kleinen Teilmengen, nämlich alle Dreiecke, benachbart zu einem bereits extrahierten Dreieck, bewertet. Diese Bewertung wendet alle vorhandene Information an. Das Ergebnis ist ein Maß (im weiteren als Evidenz bezeichnet), anhand dessen über die Flächenzugehörigkeit entschieden wird. Welche Informationen vorliegen können und wie daraus Schlüsse abgeleitet werden sollen, ist im verwendeten Wissen festgelegt. Dieses Wissen ist in Regeln formuliert, die nacheinander mit den aktuellen Daten ausgewertet werden. Zur Beurteilung werden probabilistische Methoden verwendet. Die vorhandenen Regeln stellen auch sicher, daß immer eine gültige Triangulation extrahiert wird. Regeln als Form der Wissensrepräsentation: Die Tetraedervermaschung enthält sowohl alle Dreiecke, die zur Fläche gehören, als auch jene, die nicht dazu gehören. Die Flächendreiecke werden durch Anwendung des vorhandenen Wissens von den anderen getrennt. Dieses Wissen ist in einzelne Regeln verpackt. Jede Regel inkorporiert einen kleinen Teil des vorhandenen Wissens und soll möglichst unabhängig von allen anderen Regeln sein. Zur Ableitung einer Diagnose wird ein vorwärts verketteter Mechanismus verwendet, d.h. ausgehend von den Daten werden jene Regeln gesucht, die ausgeführt werden können. Zur Effizienzsteigerung der Methode wird ein Regelbaum verwendet, der die Abhängigkeiten der Regeln untereinander und damit die Reihenfolge der Abarbeitung festlegt. Dennoch muß das System so flexibel sein, daß leicht Regeln hinzugefügt, geändert und entfernt werden können. Probabilistische Diagnosefindung: Innerhalb der Regeln werden verschiedene geometrische Eigenschaften der Dreiecke und deren lokaler Umgebung zur Bewertung herangezogen. Diese Eigenschaften (Symptome oder Indizien) sprechen verschieden stark für oder gegen eine Flächenzugehörigkeit. Aus dem a priori Gewicht und anhand des aktuellen Wertes des Symptoms wird die Evidenz des Symptoms für eine Diagnose (Flächenzugehörigkeit: ja oder nein) berechnet. Die Evidenzen der verschiedenen Symptome müssen zu einer Gesamtbeurteilung kombiniert werden. Dafür werden drei verschiedene Ansätze vorgestellt:
Accuracy Analysis on High-Resolution Geopotential Models
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU Graz, 2000. Betreuer: ao.Prof.Univ.Doz.Dr.techn. Wolf-Dieter Schuh.
Kurzfassung/Abstract
Für viele unterschiedliche Sparten der Wissenschaften ist eine genaue Kenntnis des Erdschwerefeldes von größter Wichtigkeit. Gängige mathematische Modelle zur Repräsentation des Gravitationspotentiales der Erde basieren auf Reihenentwicklungen von Kugelfunktionen mit einer enorm hohen Anzahl sogenannter harmonischer Koeffizienten. Darüber hinaus will man aber auch qualitative Aussagen über das Erdschwerefeld und insbesondere über daraus abgeleitete Größen wie Geoidundulation, Lotabweichungen, etc... treffen können. Vorausgesetzt man hat statistische Information über die harmonischen Koeffizienten, kann eine Fehlerfortpflanzung auf oben genannte Größen berechnet werden. Und genau hier wird man bald auf die Kapazitätsgrenzen heutiger Computer stoßen. Der Grund dafür sind die sehr großen, für eine klassische Fehlerrechnung benötigten Normalgleichungssysteme, deren Inversion nicht, bzw. kaum durchführbar ist. Aus diesem Grund werden in dieser Arbeit unter anderem vier Ansätze vorgestellt und untersucht, die, basierend auf alternativen (näherungsweisen und auch strengen) Methoden, eine Fehlerfortpflanzung in dieser Größenordnung bewältigen können.
Für viele unterschiedliche Sparten der Wissenschaften ist eine genaue Kenntnis des Erdschwerefeldes von größter Wichtigkeit. Gängige mathematische Modelle zur Repräsentation des Gravitationspotentiales der Erde basieren auf Reihenentwicklungen von Kugelfunktionen mit einer enorm hohen Anzahl sogenannter harmonischer Koeffizienten. Darüber hinaus will man aber auch qualitative Aussagen über das Erdschwerefeld und insbesondere über daraus abgeleitete Größen wie Geoidundulation, Lotabweichungen, etc... treffen können. Vorausgesetzt man hat statistische Information über die harmonischen Koeffizienten, kann eine Fehlerfortpflanzung auf oben genannte Größen berechnet werden. Und genau hier wird man bald auf die Kapazitätsgrenzen heutiger Computer stoßen. Der Grund dafür sind die sehr großen, für eine klassische Fehlerrechnung benötigten Normalgleichungssysteme, deren Inversion nicht, bzw. kaum durchführbar ist. Aus diesem Grund werden in dieser Arbeit unter anderem vier Ansätze vorgestellt und untersucht, die, basierend auf alternativen (näherungsweisen und auch strengen) Methoden, eine Fehlerfortpflanzung in dieser Größenordnung bewältigen können.
Use of GNSS in Civil Aviation - State-of-the-Art and Future Developments
Institut für Angewandte Geodäsie, Abteilung für Positionierung und Navigation, TU Graz, 2000.Betreuer: Univ.Prof.Dr. Hofmann-Wellenhof
Kurzfassung/Abstract
Die ständig steigende Mobilität hat eine Zunahme des Flugverkehrs von 30 % seit 1995 bewirkt. Eine der vielen Herausforderungen, um diesem Verkehrszuwachs gerecht zu werden, ist die Entwicklung von neuen Konzepten für die Navigation im oberen Luftraum. Zusätzlich werden zuverlässige und wirtschaftliche Landesysteme gesucht, welche auch in der Lage sind, die Kapazität von Flughäfen zu erhöhen. Die Unterschiede von derzeit eingesetzten Navigationssystemen, als auch die Anforderungen an solche, werden aufgezeigt. Im Zusammenhang mit den Verkehrszuwächsen wird auch die Verwendung von Satellitennavigationssystemen besprochen. Zu diesen Systemen und den dazugehörigen Erweiterungssystemen wird der derzeitige operationelle Status und zukünftige Entwicklungen aufgezeigt. Zusätzlich wird das zukünftige Navigationskonzept für den Streckenflug in Europa,Basic Area Navigation (B-RNAV), daraufhin analysiert, ob es eine Lösung für die überfüllten Lufträume bietet.Außerdem werden alternative Lösungen zum derzeitig gängigen Präzisionslandesystem, dem Instrumentenlandesystem (ILS), diskutiert. Im speziellen wird die Projektplanung für die Implementierung eines G-BAS Landesystems der Kategorie I am Beispiel der Gegebenheiten des Flughafens Zürich "Unique" besprochen.
Die ständig steigende Mobilität hat eine Zunahme des Flugverkehrs von 30 % seit 1995 bewirkt. Eine der vielen Herausforderungen, um diesem Verkehrszuwachs gerecht zu werden, ist die Entwicklung von neuen Konzepten für die Navigation im oberen Luftraum. Zusätzlich werden zuverlässige und wirtschaftliche Landesysteme gesucht, welche auch in der Lage sind, die Kapazität von Flughäfen zu erhöhen. Die Unterschiede von derzeit eingesetzten Navigationssystemen, als auch die Anforderungen an solche, werden aufgezeigt. Im Zusammenhang mit den Verkehrszuwächsen wird auch die Verwendung von Satellitennavigationssystemen besprochen. Zu diesen Systemen und den dazugehörigen Erweiterungssystemen wird der derzeitige operationelle Status und zukünftige Entwicklungen aufgezeigt. Zusätzlich wird das zukünftige Navigationskonzept für den Streckenflug in Europa,Basic Area Navigation (B-RNAV), daraufhin analysiert, ob es eine Lösung für die überfüllten Lufträume bietet.Außerdem werden alternative Lösungen zum derzeitig gängigen Präzisionslandesystem, dem Instrumentenlandesystem (ILS), diskutiert. Im speziellen wird die Projektplanung für die Implementierung eines G-BAS Landesystems der Kategorie I am Beispiel der Gegebenheiten des Flughafens Zürich "Unique" besprochen.
Qualitätskontrolle bei statischen GPS Messungen: Schwerpunkt Ambiguitätenlösung
Institut für Angewandte Geodäsie, Abteilung für Ingenieurvermessung und Meßtechnik, TU Graz, 2000. Betreuer: o.Univ.Prof.Dr. Friedrich K. Brunner.
Kurzfassung/Abstract
Wichtige Aspekte bei der Qualitätskontrolle zur Auswertung von GPS Phasenmessungen sind eine richtige Ambiguitätenfixierung und eine durchgreifende Überprüfung dieser Ambiguitäten. Sind diese beiden Qualitätsmerkmale nicht gegeben, kommt es zu einem erheblichen Genauigkeitsverlust. Die abteilungseigene Software GRAZIA basiert auf einer epochenweisen Lösung der Koordinaten und Ambiguitäten mit Hilfe eines Kalmanfilters. Als Teil dieser Diplomarbeit wurde die LAMBDA - Methode in die Software GRAZIA implementiert, um die Ambiguitätenfixierung in GRAZIA zu verbessern. Die bekannte LAMBDA - Methode wurde anhand mehrerer Datensätze getestet. Neben der Ambiguitätenfixierung ist eine durchgreifende Ambiguitätenkontrolle bei der epochenweisen Auswertung essentiell. Ein Algorithmus basiert auf der Überprüfung der Verbesserungen der Phasendoppeldifferenzen. Dieser wurde in GRAZIA implementiert. Ein weiterer Aspekt dieser Diplomarbeit war die Berechnung der Ambiguität für einen aufgehenden Satelliten. Dafür wurde die Ambiguitätenberechnung aus Koordinaten mit der Ambiguitätenberechnung in einem Ausgleich verglichen. Es zeigte sich, dass die Berechnung aus Koordinaten in diesem Fall bessere Ergebnisse liefert.
Wichtige Aspekte bei der Qualitätskontrolle zur Auswertung von GPS Phasenmessungen sind eine richtige Ambiguitätenfixierung und eine durchgreifende Überprüfung dieser Ambiguitäten. Sind diese beiden Qualitätsmerkmale nicht gegeben, kommt es zu einem erheblichen Genauigkeitsverlust. Die abteilungseigene Software GRAZIA basiert auf einer epochenweisen Lösung der Koordinaten und Ambiguitäten mit Hilfe eines Kalmanfilters. Als Teil dieser Diplomarbeit wurde die LAMBDA - Methode in die Software GRAZIA implementiert, um die Ambiguitätenfixierung in GRAZIA zu verbessern. Die bekannte LAMBDA - Methode wurde anhand mehrerer Datensätze getestet. Neben der Ambiguitätenfixierung ist eine durchgreifende Ambiguitätenkontrolle bei der epochenweisen Auswertung essentiell. Ein Algorithmus basiert auf der Überprüfung der Verbesserungen der Phasendoppeldifferenzen. Dieser wurde in GRAZIA implementiert. Ein weiterer Aspekt dieser Diplomarbeit war die Berechnung der Ambiguität für einen aufgehenden Satelliten. Dafür wurde die Ambiguitätenberechnung aus Koordinaten mit der Ambiguitätenberechnung in einem Ausgleich verglichen. Es zeigte sich, dass die Berechnung aus Koordinaten in diesem Fall bessere Ergebnisse liefert.
Hybride Ausgleichung zur endgültigen Höhenbestimmung des Großglockners
Institut für Geodäsie und Geophysik, Abteilung Angewandte Geodäsie und Ingenieurgeodäsie, Technische Universität Wien, 2000. Begutachter und Betreuer: Ao. Univ. Prof. Dr. Thomas Wunderlich, Mitbetreuer: Univ. Ass. Dr. Robert Weber.
Kurzfassung/Abstract
1955 entstand am damaligen Institut für Allgemeine Geodäsie der TU Wien die Idee, die Höhe des Großglockners, des höchsten Bergs Österreichs, durch ein Präzisionsnivellement zu bestimmen. 1979 wurden diese Nivellementhöhen trigonometrisch überprüft. 1981 und 1984 folgten weitere Arbeiten: Diplomanden des Institutes führten ein trigonometrisches Nivellement sowie trigonometrische Messungen durch, außerdem erfolgten Lotabweichungs- und Schweremessungen zur Bestimmung von Korrekturen. Ein Ziel der vorliegenden Arbeit war es, die Höhe des Großglockners auch mit der vierten und modernsten Methode der Höhenbestimmung, dem Global Positioning System (GPS), zu ermitteln. Die Messungen dazu wurden im August 1999 mit den neuen Empfängern Leica GPS-System 530 vorgenommen. Weiters sollten alle gesammelten Daten in einem gemeinsamen Ausgleich im Programmsystem PANDA verarbeitet werden, um eine bestmögliche Höhe des Großglockners im Landessystem zu erhalten. Bestandteil der Arbeit sind deshalb auch die für den Ausgleich benötigten Reduktionen und Korrekturen.
1955 entstand am damaligen Institut für Allgemeine Geodäsie der TU Wien die Idee, die Höhe des Großglockners, des höchsten Bergs Österreichs, durch ein Präzisionsnivellement zu bestimmen. 1979 wurden diese Nivellementhöhen trigonometrisch überprüft. 1981 und 1984 folgten weitere Arbeiten: Diplomanden des Institutes führten ein trigonometrisches Nivellement sowie trigonometrische Messungen durch, außerdem erfolgten Lotabweichungs- und Schweremessungen zur Bestimmung von Korrekturen. Ein Ziel der vorliegenden Arbeit war es, die Höhe des Großglockners auch mit der vierten und modernsten Methode der Höhenbestimmung, dem Global Positioning System (GPS), zu ermitteln. Die Messungen dazu wurden im August 1999 mit den neuen Empfängern Leica GPS-System 530 vorgenommen. Weiters sollten alle gesammelten Daten in einem gemeinsamen Ausgleich im Programmsystem PANDA verarbeitet werden, um eine bestmögliche Höhe des Großglockners im Landessystem zu erhalten. Bestandteil der Arbeit sind deshalb auch die für den Ausgleich benötigten Reduktionen und Korrekturen.
AISWeb: der neue Weg, sich über Internet in Graz zurechtzufinden
Institut für Theoretische Geodäsie, Abteilung Mathematische Geodäsie und Geoinformatik, TU Graz, 2000. Betreuer: Univ.Doz.Dr.phil. Norbert Bartelme.
Kurzfassung/Abstract
Das Internet erobert unsere Welt! Will man viele Menschen in allen Ländern ansprechen und auf sich aufmerksam machen, bietet sich das Medium Internet an. Es werden nicht nur Daten sondern auch Anwendungen bereitgestellt. Ein Beitrag der Geoinformatik zur neuen Technologie besteht darin, daß man digitale Straßenkarten im World Wide Web (WWW) anbietet und dazu Adreßortung und Routensuche implementiert. Interaktive Funktionen bilden die Grundlage der raumbezogenen Suche nach Informationen bzw. der Veranschaulichung durch hinterlegte Kartendarstellungen. Zu berücksichtigen ist, daß die Internetbenützer keine Geoinformatik-Kenntnisse mitbringen. Die Nutzergruppen eines webfähigen Geoinformationssystems ergeben sich aus dessen Inhalt. In dieser Diplomarbeit wird das AIS (Automobilinformationssystem Graz) mit Hilfe des Softwaremoduls SmallworldWeb webfähig gemacht. Der GDF (Geographic Data File) Standard regelt die Modellierung und den Austausch von digitalen Straßendaten und damit verknüpfter Daten. Überlegungen werden zum Inhalt, zu den Funktionen und zu den Nutzergruppen angestellt. Die Internettechnologie wird in diesem Zusammenhang ebenso erläutert.
Das Internet erobert unsere Welt! Will man viele Menschen in allen Ländern ansprechen und auf sich aufmerksam machen, bietet sich das Medium Internet an. Es werden nicht nur Daten sondern auch Anwendungen bereitgestellt. Ein Beitrag der Geoinformatik zur neuen Technologie besteht darin, daß man digitale Straßenkarten im World Wide Web (WWW) anbietet und dazu Adreßortung und Routensuche implementiert. Interaktive Funktionen bilden die Grundlage der raumbezogenen Suche nach Informationen bzw. der Veranschaulichung durch hinterlegte Kartendarstellungen. Zu berücksichtigen ist, daß die Internetbenützer keine Geoinformatik-Kenntnisse mitbringen. Die Nutzergruppen eines webfähigen Geoinformationssystems ergeben sich aus dessen Inhalt. In dieser Diplomarbeit wird das AIS (Automobilinformationssystem Graz) mit Hilfe des Softwaremoduls SmallworldWeb webfähig gemacht. Der GDF (Geographic Data File) Standard regelt die Modellierung und den Austausch von digitalen Straßendaten und damit verknüpfter Daten. Überlegungen werden zum Inhalt, zu den Funktionen und zu den Nutzergruppen angestellt. Die Internettechnologie wird in diesem Zusammenhang ebenso erläutert.
Fortlaufende freie Stationierung versus Konsolenpolygon! Vergleich zweier Varianten zur Anlage untertägiger Tunnelnetze
Institut für Geodäsie und Geophysik, Abt. f. Angewandte Geodäsie und Ingenieurgeodäsie, TU Wien, 2000. Begutachter: Dipl.-Ing. Dr. Thomas Wunderlich, Betreuer: Dipl.-Ing. Klaus Chmelina.
Kurzfassung/Abstract
Die hochgenaue und zuverlässige Steuerung von Tunnelvortrieben zählt zu den heikelsten Aufgaben der Ingenieurgeodäsie. Traditionell bedient sich der verantwortliche Geodät hierfür meistens der Methode des einseitig angeschlossenen Polygonzugs, welchen er durch Erweiterung zu schlauchförmigen Polygonnetzen oder Hinzunahme von Kreiselstützungen zu kontrollieren versucht. Als Stand- und Zielpunkte dienen dabei an den Tunnelulmen entweder fest montierte oder mobile Messkonsolen mit Zentriervorrichtungen. Ein zweites Verfahren, welches sich vornehmlich in jüngerer Zeit im Zuge von Vortrieben nach der NÖT (Neue Österreichische Tunnelbaumethode) eingebürgert und bewährt hat, ist die sog. fortlaufende freie Stationierung. Dieses Verfahren nutzt die bei der NÖT zur Überwachung des Verformungsgeschehens periodisch zu beobachtenden, profilartig in sog. Messquerschnitten fix vermarkten Reflektoren. Ausgehend von einem flexibel wählbaren Stativstandpunkt, erfolgt durch polare Beobachtung bereits zur Ruhe gekommener Zielpunkte im rückwärtigen Tunnelbereich eine genaue Bestimmung des Standpunkts, um von diesem neue Zielpunkte im vorderen Bereich zu beobachten. Mit dem fortlaufenden Einsatz dieser Strategie kann somit die Vortriebsrichtung übertragen und auf einen zusätzlichen Präzisionspolygonzug verzichtet werden. In der Arbeit wird eine umfassende Untersuchung der qualitativen Eignung der fortlaufenden freien Stationierung (FFS) zur Substitution eines Konsolenpolygons (KPG) durchgeführt. Die Untersuchung beruht einerseits auf den Vergleich der typischen Eigenschaften der Netzanlageformen, die sich aus der Messstrategie, der Tunnelbaumethode, den ungünstigen Messbedingungen untertage und der allgemeinen Netzrealisierung in der Örtlichkeit (z.B. Vermarkungsweisen) ergeben, andererseits auf den Vergleich von den aus Simulationsrechnungen abgeleiteten Netzgütekriterien Genauigkeit und Zuverlässigkeit. Als weiteres Kriterium wird die Wirtschaftlichkeit anhand zeitlicher Aufwandsschätzungen für beide Netzvarianten untersucht. Eingehend analysiert werden die Abhängigkeiten beider Verfahren von Projektparametern wie Tunnelbreite, Trassenform sowie explizit des Standpunktabstands und der Zielweiten. Hierfür werden zahlreiche Subvarianten gesondert betrachtet und jeweils hinsichtlich der o.a Kriterien die optimalsten ermittelt. Zusammenfassend werden für die praktische Anwendung folgende Schlussfolgerungen gezogen: Vorteile der FFS gegenüber dem KPG:
Aufgrund des Fehlens tunnelwandnaher Visuren sind im allgemeinen geringere Refraktionseinflüsse und weniger Sichthindernisse zu erwarten
Aufgrund der Messweise (kein Standpunkt wird wieder als Zielpunkt benutzt) treten geringere Zentrierunsicherheiten auf
In Kombination mit den Verschiebungsmessungen bei der NÖT (Punktvermarkungen sind bereits vorhanden, Verschiebungsmessdaten können für das Vortriebsnetz unmittelbar genutzt werden) ergibt sich ein kaum aufzuholender wirtschaftlicher Vorteil
Eine flexible Standpunktwahl ermöglicht eine größere Unabhängigkeit vom Baugeschehen
In engen Kurvenbereichen liefern die möglichen, längeren Zielweiten und Standpunktabstände in Abhängigkeit von der Kurvenlänge Wirtschaftlichkeits- und Genauigkeitsvorteile
Ein Verlust (z.B. Zerstörung) einzelner Punkte ist weniger kritisch
Vorteile des KPG gegenüber der FFS:
Das Verfahren ist weithin verbreitet und nicht für eine bestimmte Tunnelbaumethode prädestiniert
Die rechentechnische Verarbeitung der Messdaten stellt geringere Anforderungen an den Auswerter und das Ausgleichsprogramm. Ausgleichsergebnisse werden i.A. schneller erhalten und sind leichter interpretierbar
Die in Abhängigkeit von der Untergrundbeschaffenheit als unsicherer anzusehenden Stativaufstellungen entfallen
Im Falle geradliniger Tunnel ergibt sich, ausgenommen bei der NÖT, eine größere Wirtschaftlichkeit
In engen Kurvenbereichen ergibt sich eine höhere Zuverlässigkeit
Die hochgenaue und zuverlässige Steuerung von Tunnelvortrieben zählt zu den heikelsten Aufgaben der Ingenieurgeodäsie. Traditionell bedient sich der verantwortliche Geodät hierfür meistens der Methode des einseitig angeschlossenen Polygonzugs, welchen er durch Erweiterung zu schlauchförmigen Polygonnetzen oder Hinzunahme von Kreiselstützungen zu kontrollieren versucht. Als Stand- und Zielpunkte dienen dabei an den Tunnelulmen entweder fest montierte oder mobile Messkonsolen mit Zentriervorrichtungen. Ein zweites Verfahren, welches sich vornehmlich in jüngerer Zeit im Zuge von Vortrieben nach der NÖT (Neue Österreichische Tunnelbaumethode) eingebürgert und bewährt hat, ist die sog. fortlaufende freie Stationierung. Dieses Verfahren nutzt die bei der NÖT zur Überwachung des Verformungsgeschehens periodisch zu beobachtenden, profilartig in sog. Messquerschnitten fix vermarkten Reflektoren. Ausgehend von einem flexibel wählbaren Stativstandpunkt, erfolgt durch polare Beobachtung bereits zur Ruhe gekommener Zielpunkte im rückwärtigen Tunnelbereich eine genaue Bestimmung des Standpunkts, um von diesem neue Zielpunkte im vorderen Bereich zu beobachten. Mit dem fortlaufenden Einsatz dieser Strategie kann somit die Vortriebsrichtung übertragen und auf einen zusätzlichen Präzisionspolygonzug verzichtet werden. In der Arbeit wird eine umfassende Untersuchung der qualitativen Eignung der fortlaufenden freien Stationierung (FFS) zur Substitution eines Konsolenpolygons (KPG) durchgeführt. Die Untersuchung beruht einerseits auf den Vergleich der typischen Eigenschaften der Netzanlageformen, die sich aus der Messstrategie, der Tunnelbaumethode, den ungünstigen Messbedingungen untertage und der allgemeinen Netzrealisierung in der Örtlichkeit (z.B. Vermarkungsweisen) ergeben, andererseits auf den Vergleich von den aus Simulationsrechnungen abgeleiteten Netzgütekriterien Genauigkeit und Zuverlässigkeit. Als weiteres Kriterium wird die Wirtschaftlichkeit anhand zeitlicher Aufwandsschätzungen für beide Netzvarianten untersucht. Eingehend analysiert werden die Abhängigkeiten beider Verfahren von Projektparametern wie Tunnelbreite, Trassenform sowie explizit des Standpunktabstands und der Zielweiten. Hierfür werden zahlreiche Subvarianten gesondert betrachtet und jeweils hinsichtlich der o.a Kriterien die optimalsten ermittelt. Zusammenfassend werden für die praktische Anwendung folgende Schlussfolgerungen gezogen: Vorteile der FFS gegenüber dem KPG:
Qualitätskontrolle bei GPS RTK Messungen in der Ingenieurgeodäsie
Institut für Angewandte Geodäsie, Abteilung für Ingenieurvermessung und Meßtechnik, TU Graz, 2000. Betreuer: o.Univ.Prof.Dr. Friedrich K. Brunner.
Kurzfassung/Abstract
GPS RTK hat sich in den letzten Jahren zu einer Alternative zu traditionellen Methoden im Vermessungswesen entwickelt. Die Frage der Qualitätskontrolle und ? sicherung ist aber zur Zeit noch nicht ausreichend geklärt. Im Rahmen dieser Diplomarbeit wurden praktische Experimente und Untersuchungen mit einem bestimmten RTK System durchgeführt. Es wird beurteilt, in wie weit die tatsächliche Genauigkeit der Ergebnisse mit den Qualitätsangaben des Systems übereinstimmen und wie diese Angaben zu interpretieren sind. Als Vergleichs- und Kontrollwerte dienen Auswertungen statischer GPS Messungen bzw. bekannte Koordinaten diskreter Punkte. Es zeigt sich, dass RTK Positionen mit Zentimetergenauigkeit in Echtzeit zuverlässig bestimmt werden, wenn die Ambiguitäten der Trägerphasenmessungen gelöst werden können. Dies gilt auch, wenn nur die Beobachtungen einer einzelnen Epoche zur Verfügung stehen. Das Prinzip der Ein-Epochen-Lösung (Single Epoch Solution) wird vorgestellt, da diese Methode besondere Vorteile in der Praxis verspricht und weitere Möglichkeiten zur Qualitätskontrolle eröffnet. Mit Hilfe einer Implementierung in matlab werden Untersuchungen an einer kurzen Basislinie durchgeführt. Diese bestätigen, dass die Single Epoch Methode geeignet ist, um mit RTK zuverlässige Messungen durchzuführen.
GPS RTK hat sich in den letzten Jahren zu einer Alternative zu traditionellen Methoden im Vermessungswesen entwickelt. Die Frage der Qualitätskontrolle und ? sicherung ist aber zur Zeit noch nicht ausreichend geklärt. Im Rahmen dieser Diplomarbeit wurden praktische Experimente und Untersuchungen mit einem bestimmten RTK System durchgeführt. Es wird beurteilt, in wie weit die tatsächliche Genauigkeit der Ergebnisse mit den Qualitätsangaben des Systems übereinstimmen und wie diese Angaben zu interpretieren sind. Als Vergleichs- und Kontrollwerte dienen Auswertungen statischer GPS Messungen bzw. bekannte Koordinaten diskreter Punkte. Es zeigt sich, dass RTK Positionen mit Zentimetergenauigkeit in Echtzeit zuverlässig bestimmt werden, wenn die Ambiguitäten der Trägerphasenmessungen gelöst werden können. Dies gilt auch, wenn nur die Beobachtungen einer einzelnen Epoche zur Verfügung stehen. Das Prinzip der Ein-Epochen-Lösung (Single Epoch Solution) wird vorgestellt, da diese Methode besondere Vorteile in der Praxis verspricht und weitere Möglichkeiten zur Qualitätskontrolle eröffnet. Mit Hilfe einer Implementierung in matlab werden Untersuchungen an einer kurzen Basislinie durchgeführt. Diese bestätigen, dass die Single Epoch Methode geeignet ist, um mit RTK zuverlässige Messungen durchzuführen.
A Technical Concept for Pay-per-Use in Geomarketing Services
Institut für Geoinformation und Landesvermessung, TU Wien, 1999. Begutachter: Univ.-Prof. Dr. A. Frank, Betreuer: Dr. St. Winter.
Kurzfassung/Abstract
Ein Großteil aller Firmendaten, wie Kunden- oder Lieferantenadressen, haben einen räumlichen Bezug. Den Prozess, bei dem eine Firma ihre raumbezogenen Daten mit anderen (räumlichen oder statischen) Informationen mittels eines Geo-Informationssystems (GIS) zu Marketingzwecken verknüpft, nennt man Geomarketing. Moderne Geomarketing-Anwendungen verwenden eine sehr große Menge an geographischen und demographischen Daten. Durch die extrem hohen Kosten für diese Daten kann Geomarketing nur von großen Firmen, welche sich solche Systeme leisten können, und von Firmen, die sich auf das Angebot von Geomarketing-Dienstleistungen spezialisiert haben, angewendet werden. Das Hauptziel dieser Diplomarbeit ist es, einen Weg zu finden, der es Klein- und Mittelbetrieben ermöglicht, Geomarketing zu einem erschwinglichen Preis durchzuführen. Ein online-Service, bei welchem der Benutzer nur für die von der konkreten Geomarketing-Anfrage benutzten Daten bezahlt, ist die vorgeschlagene Lösung ("pay-per-use"). Der Ansatz für die Entwicklung eines online-Geomarketing-Service auf pay-per-use-Basis muß den Anforderungen von E-Commerce und Geomarketing genügen. Konzeptuelle und formale Modelle für ein solches System werden entwickelt. Anhand des formalen Modells können wir die Sicherheit des Systems beweisen. Die Daten des Geomarketing-Dienstleisters und die Daten der Kundenfirma können kombiniert werden, aber wir können garantieren, daß keiner der beteiligten Partner die Daten mißbrauchen kann, und daß jede Benutzung der Daten des Dienstleisters zur spätern Verrechnung genau protokolliert wird. Eines der entwickelten konzeptuellen Modelle wird in ein formales Modell weiterentwickelt, und daraus wird eine technische Lösung mittels eines Java-Prototyps realiisiert. Andere konzeptuelle Modelle können aus diesen Ideen auf ähnlcihe Weise umgesetzt werden.
Ein Großteil aller Firmendaten, wie Kunden- oder Lieferantenadressen, haben einen räumlichen Bezug. Den Prozess, bei dem eine Firma ihre raumbezogenen Daten mit anderen (räumlichen oder statischen) Informationen mittels eines Geo-Informationssystems (GIS) zu Marketingzwecken verknüpft, nennt man Geomarketing. Moderne Geomarketing-Anwendungen verwenden eine sehr große Menge an geographischen und demographischen Daten. Durch die extrem hohen Kosten für diese Daten kann Geomarketing nur von großen Firmen, welche sich solche Systeme leisten können, und von Firmen, die sich auf das Angebot von Geomarketing-Dienstleistungen spezialisiert haben, angewendet werden. Das Hauptziel dieser Diplomarbeit ist es, einen Weg zu finden, der es Klein- und Mittelbetrieben ermöglicht, Geomarketing zu einem erschwinglichen Preis durchzuführen. Ein online-Service, bei welchem der Benutzer nur für die von der konkreten Geomarketing-Anfrage benutzten Daten bezahlt, ist die vorgeschlagene Lösung ("pay-per-use"). Der Ansatz für die Entwicklung eines online-Geomarketing-Service auf pay-per-use-Basis muß den Anforderungen von E-Commerce und Geomarketing genügen. Konzeptuelle und formale Modelle für ein solches System werden entwickelt. Anhand des formalen Modells können wir die Sicherheit des Systems beweisen. Die Daten des Geomarketing-Dienstleisters und die Daten der Kundenfirma können kombiniert werden, aber wir können garantieren, daß keiner der beteiligten Partner die Daten mißbrauchen kann, und daß jede Benutzung der Daten des Dienstleisters zur spätern Verrechnung genau protokolliert wird. Eines der entwickelten konzeptuellen Modelle wird in ein formales Modell weiterentwickelt, und daraus wird eine technische Lösung mittels eines Java-Prototyps realiisiert. Andere konzeptuelle Modelle können aus diesen Ideen auf ähnlcihe Weise umgesetzt werden.
Untersuchung zur Verfügbarkeit von dGPS - Diensten in Österreich
Institut für Theoretische Geodäsie und Geophysik, ABteilung Theoretische Geodäsie, TU Wien, 1999. Begutachter: em.o.Prof.Dr.K.Bretterbauer, Betreuer: Dr. R. Weber.
Kurzfassung/Abstract
Die mit GPS erzeilbare Genauigkeit der Einzelpunktbestimmung in Echzeit reicht heute für viele Anwendungen nicht aus. Bedingt durch die Einführung der Sicherungstechniken AS (Anit Spoofing) und SA (Selective Availability) ergibt sich für zivile Nutzer eine Echtzeitgenauigkeit von 100 Metern (2 drms, 95%) in der Lage und 156 Metern (2 drms, 95%) in der Höhe. Der Grundgedanke des differentiellen GPS (dGPS) liegt in der Tatsache, daß, abhängig von der Länge der Basislinie zwischen den Empfängern, gleichzeitige Pseudostreckenmessungen zum selben Satelliten, mit gleichen Fehleranteilen behaftet sind. Dies betrifft sowohl die durch Selective Availability hervorgerufenen Uhr- und Orbitfehlerbeiträge, als auch dominierende Anteile der atmosphärischen Laufzeitverzögerung (Ionosphäre, Troposphäre). In der vorliegenden Arbeit wird nach einem allgemeinen Überblick über Aufbau und Wirkungsweise des GPS näher auf das Wesen des differentiellen GPS eingegangen. Weiters werden verschiedene Dienste vorgestellt, die lokale oder regionale Korrekturdaten für GPS anbieten und auch in Österreich verfügbar sind. Innerhalb eines Projektes bei den österreichischen Bundesbahnen wurden zwei Anbieterdienste von DGPS-Korrekturdaten in Hinblick auf Verfügbarkeit udn Genauigkeit untersucht. Er wurde das Verfahren der phasengeglätteten Codemessung eingesetzt, wobei allerdings auf die Höhen keine spezielle Rücksicht in der Auswertung zu nehmen war. Ein Dienst - OMNISTAR - sendet die Korrekturdaten über geostationäre Satelliten und ist fast auf der ganzen Welt verfügbar. Der zweite Dienst - Dienst der dGPS Datenverarbeitungsgesellschaft mbH - benutzt zur Funkübertragung terresstrische Sendeanlagen und ist österreichweit zu empfangen. Für den getesteten Teil des ÖBB-Hauptstreckennetzes ergab sich eine Verfügbarketi beider Dienste von rund 80 % und eine Positionsgenauigkeit von +/- 0.3 m bis +/- 0.7 m.
Die mit GPS erzeilbare Genauigkeit der Einzelpunktbestimmung in Echzeit reicht heute für viele Anwendungen nicht aus. Bedingt durch die Einführung der Sicherungstechniken AS (Anit Spoofing) und SA (Selective Availability) ergibt sich für zivile Nutzer eine Echtzeitgenauigkeit von 100 Metern (2 drms, 95%) in der Lage und 156 Metern (2 drms, 95%) in der Höhe. Der Grundgedanke des differentiellen GPS (dGPS) liegt in der Tatsache, daß, abhängig von der Länge der Basislinie zwischen den Empfängern, gleichzeitige Pseudostreckenmessungen zum selben Satelliten, mit gleichen Fehleranteilen behaftet sind. Dies betrifft sowohl die durch Selective Availability hervorgerufenen Uhr- und Orbitfehlerbeiträge, als auch dominierende Anteile der atmosphärischen Laufzeitverzögerung (Ionosphäre, Troposphäre). In der vorliegenden Arbeit wird nach einem allgemeinen Überblick über Aufbau und Wirkungsweise des GPS näher auf das Wesen des differentiellen GPS eingegangen. Weiters werden verschiedene Dienste vorgestellt, die lokale oder regionale Korrekturdaten für GPS anbieten und auch in Österreich verfügbar sind. Innerhalb eines Projektes bei den österreichischen Bundesbahnen wurden zwei Anbieterdienste von DGPS-Korrekturdaten in Hinblick auf Verfügbarkeit udn Genauigkeit untersucht. Er wurde das Verfahren der phasengeglätteten Codemessung eingesetzt, wobei allerdings auf die Höhen keine spezielle Rücksicht in der Auswertung zu nehmen war. Ein Dienst - OMNISTAR - sendet die Korrekturdaten über geostationäre Satelliten und ist fast auf der ganzen Welt verfügbar. Der zweite Dienst - Dienst der dGPS Datenverarbeitungsgesellschaft mbH - benutzt zur Funkübertragung terresstrische Sendeanlagen und ist österreichweit zu empfangen. Für den getesteten Teil des ÖBB-Hauptstreckennetzes ergab sich eine Verfügbarketi beider Dienste von rund 80 % und eine Positionsgenauigkeit von +/- 0.3 m bis +/- 0.7 m.