- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 1997
Abschlussarbeiten 1997
Untersuchungen zur kinematischen GPS- Vermessung
Institut für Angewandte Geodäsie/Positionierung und Navigation, TU Graz, 1997. Begutachter: Univ.Doz. Dr. H. Lichtenegger, Univ.-Prof. Dr. B. Hofmann-Wellenhof. Rigorosum am 21. Mai 1997.
Kurzfassung/Abstract
In der Arbeit wird der Leistungsstand kinematischer GPS-Vermessungen unter Verwendung verschiedener Empfänger und Auswerteprogramme untersucht. Das Ziel der Untersuchungen war, Schwachstellen bei Durchführung und Auswertung der Messungen aufzuzeigen.Ein Schwerpunkt der Arbeit behandelt das Problem der Konvertierung von kinematischen RINEX-Dateien. Die Bearbeitung solcher Dateien mit Programmen verschiedener Hersteller zeigte auf Grund von Unterschieden in den RINEX-Formaten nur eine geringe Erfolgsrate. Die Unterschiede wurden analysiert und können mit einem eigens dafür entwickelten Programm entfernt werden.Im zweiten Schwerpunkt der Arbeit wurden ausgewählte Empfänger und Programmpakete untersucht. Die Empfänger wurden mehreren Tests unterworfen, wobei ähnliche Leistungsmerkmale nachgewiesen werden konnten. Die Auswertung hat bei Verwendung von idealen Meßdaten (quasi-kinematisch gemessene Null-Basislinien) nur Abweichungen im Millimeterbereich ergeben. Bei echten und guten kinematischen Messungen sind die Resultate mit einer Toleranz von 2-3 Zentimetern identisch. Bei schwachen Daten hingegen können die Ergebnisse erheblich von den genauen Werten abweichen. Solche Fälle wurden dokumentiert und erläutert. Weiters wurden die von den Programmen ausgewiesenen Genauigkeiten mit echten Abweichungen der Resultate verglichen. Dabei wurde oftmals eine geringe Zuverlässigkeit festgestellt.Zusammenfassend haben die durchgeführten Untersuchungen gezeigt, daß für präzise kinematische GPS-Messungen die Kombination verschiedener Empfänger und Auswerteprogramme möglich ist. Das Hauptproblem dabei liegt nach wie vor in der Zuverlässigkeit der Ergebnisse.
In der Arbeit wird der Leistungsstand kinematischer GPS-Vermessungen unter Verwendung verschiedener Empfänger und Auswerteprogramme untersucht. Das Ziel der Untersuchungen war, Schwachstellen bei Durchführung und Auswertung der Messungen aufzuzeigen.Ein Schwerpunkt der Arbeit behandelt das Problem der Konvertierung von kinematischen RINEX-Dateien. Die Bearbeitung solcher Dateien mit Programmen verschiedener Hersteller zeigte auf Grund von Unterschieden in den RINEX-Formaten nur eine geringe Erfolgsrate. Die Unterschiede wurden analysiert und können mit einem eigens dafür entwickelten Programm entfernt werden.Im zweiten Schwerpunkt der Arbeit wurden ausgewählte Empfänger und Programmpakete untersucht. Die Empfänger wurden mehreren Tests unterworfen, wobei ähnliche Leistungsmerkmale nachgewiesen werden konnten. Die Auswertung hat bei Verwendung von idealen Meßdaten (quasi-kinematisch gemessene Null-Basislinien) nur Abweichungen im Millimeterbereich ergeben. Bei echten und guten kinematischen Messungen sind die Resultate mit einer Toleranz von 2-3 Zentimetern identisch. Bei schwachen Daten hingegen können die Ergebnisse erheblich von den genauen Werten abweichen. Solche Fälle wurden dokumentiert und erläutert. Weiters wurden die von den Programmen ausgewiesenen Genauigkeiten mit echten Abweichungen der Resultate verglichen. Dabei wurde oftmals eine geringe Zuverlässigkeit festgestellt.Zusammenfassend haben die durchgeführten Untersuchungen gezeigt, daß für präzise kinematische GPS-Messungen die Kombination verschiedener Empfänger und Auswerteprogramme möglich ist. Das Hauptproblem dabei liegt nach wie vor in der Zuverlässigkeit der Ergebnisse.
Geometrische Auswertung von multisensoralen Fernerkundungsdaten
Abteilung für Fernerkundung, Bildverarbeitung und Kartographie, TU Graz, 1997. Begutachter und Betreuer: Univ.-Prof. Dr. G. Brandstätter.
Kurzfassung/Abstract
Die flugzeug- und satellitengestützte Fernerkundung der Erde stellt seit vielen Jahren eine Informationsquelle für kartographische, geodätische, geowissenschaftliche oder umweltbezogene Fragestellungen dar. Durch die Möglichkeit der automatischen bzw. teilautomatischen geometrischen und thematischen Bearbeitung multisensoraler Datensätze werden die Einsatzmöglichkeiten von Fernerkundungsdaten erweitert. Die Qualität der geometrischen Bearbeitung von digitalen Daten in Form einer Georeferenzierung ist für viele weitere Auswertungen von großer Bedeutung. In der vorliegenden Arbeit werden die theoretischen Grundlagen sowie praktische Anwendungen hinsichtlich Georeferenzierung und automatischer Generierung digitaler Geländemodelle präsentiert.
Für die Georeferenzierung wurden verschiedene Sensordaten mit unterschiedlicher Pixelauflösung in Bezug auf die erreichbare Lagegenauigkeit überprüft. Die Georeferenzierung erfolgte auf der Grundlage von parametrischen Abbildungsmodellen sowie unter Einbeziehung eines digitalen Höhenmodells. Ergebnis dieses Teils der Arbeit war einerseits ein Vergleich der erreichbaren Lagegenauigkeiten bezogen auf Pixelauflösung und Referenzdaten und andererseits eine visuelle Darstellung des georeferenzierten multisensoralen Datensatzes in Form eines Bildmosaiks und einer axonometrischen Ansicht.
Eine Verarbeitungskette von der automatischen Ableitung eines digitalen Höhenmodells bis zur Erstellung einer Satellitenbildkarte wurde in einem weiteren Teil der Arbeit mit einem MOMS-02 Stereobildpaar durchgeführt. Die erreichten Genauigkeiten sowohl für das digitale Höhenmodell als auch für die Satellitenbildkarte werden als Ergebnis dokumentiert und diskutiert.
Die flugzeug- und satellitengestützte Fernerkundung der Erde stellt seit vielen Jahren eine Informationsquelle für kartographische, geodätische, geowissenschaftliche oder umweltbezogene Fragestellungen dar. Durch die Möglichkeit der automatischen bzw. teilautomatischen geometrischen und thematischen Bearbeitung multisensoraler Datensätze werden die Einsatzmöglichkeiten von Fernerkundungsdaten erweitert. Die Qualität der geometrischen Bearbeitung von digitalen Daten in Form einer Georeferenzierung ist für viele weitere Auswertungen von großer Bedeutung. In der vorliegenden Arbeit werden die theoretischen Grundlagen sowie praktische Anwendungen hinsichtlich Georeferenzierung und automatischer Generierung digitaler Geländemodelle präsentiert.
Für die Georeferenzierung wurden verschiedene Sensordaten mit unterschiedlicher Pixelauflösung in Bezug auf die erreichbare Lagegenauigkeit überprüft. Die Georeferenzierung erfolgte auf der Grundlage von parametrischen Abbildungsmodellen sowie unter Einbeziehung eines digitalen Höhenmodells. Ergebnis dieses Teils der Arbeit war einerseits ein Vergleich der erreichbaren Lagegenauigkeiten bezogen auf Pixelauflösung und Referenzdaten und andererseits eine visuelle Darstellung des georeferenzierten multisensoralen Datensatzes in Form eines Bildmosaiks und einer axonometrischen Ansicht.
Eine Verarbeitungskette von der automatischen Ableitung eines digitalen Höhenmodells bis zur Erstellung einer Satellitenbildkarte wurde in einem weiteren Teil der Arbeit mit einem MOMS-02 Stereobildpaar durchgeführt. Die erreichten Genauigkeiten sowohl für das digitale Höhenmodell als auch für die Satellitenbildkarte werden als Ergebnis dokumentiert und diskutiert.
Numerical investigations on High Degree Spherical Harmonic Analysis
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU Graz, 1997. Begutachter und Betreuer: Univ.-Doz. Dr. W.-D. Schuh.
Kurzfassung/Abstract
Die mathematische Beschreibung des globalen Erdschwerefeldes wird mittels einer Kugelfunktionsreihenentwicklung bewerkstelligt. Bei der sphärischen harmonischen Analyse bestimmt man die Kugelfunktionskoeffizienten aus Messungen der Schwere und deren Ableitungen. Das bedingt die Lösung eines sehr großen Normalgleichungssystems. In dieser Arbeit wird ein Softwarepaket präsentiert, welches auf effizienten, maßgeschneiderten Algorithmen aufbaut. Dabei stellt das verwendete Numerierungsschema für die Koeffizienten die zentrale Innovation dar. Es bietet den Vorteil, daß bei der Lösung kein zusätzlicher Speicherplatz benötigt wird. Die Kombination von zufällig verteilten niederfrequenten Informationen mit regelmäßig verteilten hochfrequenten Informationen (Sensorfussion) liegt diesem Schema zugrunde. Neben der strengen Lösung über den Cholesky- Algorithmus ist eine Iterationslösung mit vorkonditionierter konjugierter Gradiententechnik implementiert, welche keine gegitterten Informationen voraussetzt. Für die direkte Lösung kann auch eine partielle Kovarianzmatrix streng berechnet werden ohne zusätzlichen Speicher zu verwenden. Dies wurde mit einem rekursiven Übergang von der Cholesky-reduzierten Normalgleichungsmatrix zur partiellen Inversen möglich.
Die mathematische Beschreibung des globalen Erdschwerefeldes wird mittels einer Kugelfunktionsreihenentwicklung bewerkstelligt. Bei der sphärischen harmonischen Analyse bestimmt man die Kugelfunktionskoeffizienten aus Messungen der Schwere und deren Ableitungen. Das bedingt die Lösung eines sehr großen Normalgleichungssystems. In dieser Arbeit wird ein Softwarepaket präsentiert, welches auf effizienten, maßgeschneiderten Algorithmen aufbaut. Dabei stellt das verwendete Numerierungsschema für die Koeffizienten die zentrale Innovation dar. Es bietet den Vorteil, daß bei der Lösung kein zusätzlicher Speicherplatz benötigt wird. Die Kombination von zufällig verteilten niederfrequenten Informationen mit regelmäßig verteilten hochfrequenten Informationen (Sensorfussion) liegt diesem Schema zugrunde. Neben der strengen Lösung über den Cholesky- Algorithmus ist eine Iterationslösung mit vorkonditionierter konjugierter Gradiententechnik implementiert, welche keine gegitterten Informationen voraussetzt. Für die direkte Lösung kann auch eine partielle Kovarianzmatrix streng berechnet werden ohne zusätzlichen Speicher zu verwenden. Dies wurde mit einem rekursiven Übergang von der Cholesky-reduzierten Normalgleichungsmatrix zur partiellen Inversen möglich.
Entwurf und Implementierung einer Datenschnittstelle zwischen der SCOP Geländemodelldatei und AutoCAD
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuer: Dr. F. Hochstöger.
Kurzfassung/Abstract
Digitale Geländemodelle sind ein wichtiges Hilfsmittel in vielen technischen und wissenschaftlichen Bereichen. Digitale Geländemodelle sind, neben vielen anderen Anwendungen, Grundlage für Planungs- und Konstruktionsaufgaben. So erfordern beispielsweise Projektierungen im Straßenbau ein Modell des Naturbestandes, welches in den folgenden Arbeitsschritten für Entwürfe eines zukünftigen Bestandes sowie verschiedene Berechnungen verwendet wird. Die Erstellung digitaler Geländemodelle und die Konstruktion technischer Objekte stellen unterschiedliche Anwendungen im Gesamtprozeß dar, für die verschiedene Programmsysteme zum Einsatz gelangen: SCOP ist ein modulares, plattformunabhängiges Programmsystem zur Berechnung und Verwendung digitaler Geländemodelle, welches in Zusammenarbeit der Institute für Photogrammetrie und Fernerkundung der TU-Wien und der Universität Stuttgart sowie der INPHO GmbH, Stuttgart, entwickelt wurde. Das Geländemodell von SCOP ist ein verbessertes Rastermodell, welches auch geomorphologische Details mit hoher Genauigkeit darstellen kann. AutoCAD, ein Produkt von Autodesk Inc., USA, ist das weltweit führende CAD-Programm im PC-Bereich. AutoCAD besteht im wesentlichen aus einer Datenbank für die Verwaltung 3-dimensionaler grafischer Objekte, elementaren Eingabe- und Bearbeitungsfunktionen sowie der Bildschirm- und Druckausgabe. Seine weite Verbreitung verdankt AutoCAD jedoch der Fähigkeit, Zusatzprogramme - sogenannte "Applikationen" - von Drittanbietern einzubinden. Von SCOP-Anwendern wurde der Wunsch geäußert, ein Geländemodell, welches mit SCOP erstellt wurde, in AutoCAD zu übernehmen. Aufgabe ist also, die Geländefläche des SCOP- Modells mit Datenelementen von AutoCAD darzustellen. Zentrale Themen dieser Arbeit sind:
Auswahl geeigneter Datenelemente von AutoCAD. Anhand wichtiger Kriterien wie Flexibilität und Effizienz werden von den verfügbaren Datenelementen jene ausgewählt, welche die Geländefläche gut abzubilden vermögen.
Untersuchung verschiedener Algorithmen der Dreieckszerlegung auf ihre Eignung. Die spezielle Struktur des SCOP-Geländemodells erfordert die Zerlegung der Geländefläche in dreieckige Teilflächen, wobei bestimmte Bedingungen (constraints) zu erfüllen sind.
Anwendung fortgeschrittener Programmiertechniken. Die Verwendung abstrakter Datentypen dient dazu, die Entwicklungs- und Testzeit des Programmes kurz zu halten und die spätere Anpassung an andere Betriebssysteme leicht zu gestalten.
Neben AutoCAD kann nun jedes beliebige Programm, welches das Einlesen von Daten im DXF-Format unterstützt, zur Weiterbearbeitung oder Visualisierung des SCOP-Geländemodells verwendet werden.
Digitale Geländemodelle sind ein wichtiges Hilfsmittel in vielen technischen und wissenschaftlichen Bereichen. Digitale Geländemodelle sind, neben vielen anderen Anwendungen, Grundlage für Planungs- und Konstruktionsaufgaben. So erfordern beispielsweise Projektierungen im Straßenbau ein Modell des Naturbestandes, welches in den folgenden Arbeitsschritten für Entwürfe eines zukünftigen Bestandes sowie verschiedene Berechnungen verwendet wird. Die Erstellung digitaler Geländemodelle und die Konstruktion technischer Objekte stellen unterschiedliche Anwendungen im Gesamtprozeß dar, für die verschiedene Programmsysteme zum Einsatz gelangen: SCOP ist ein modulares, plattformunabhängiges Programmsystem zur Berechnung und Verwendung digitaler Geländemodelle, welches in Zusammenarbeit der Institute für Photogrammetrie und Fernerkundung der TU-Wien und der Universität Stuttgart sowie der INPHO GmbH, Stuttgart, entwickelt wurde. Das Geländemodell von SCOP ist ein verbessertes Rastermodell, welches auch geomorphologische Details mit hoher Genauigkeit darstellen kann. AutoCAD, ein Produkt von Autodesk Inc., USA, ist das weltweit führende CAD-Programm im PC-Bereich. AutoCAD besteht im wesentlichen aus einer Datenbank für die Verwaltung 3-dimensionaler grafischer Objekte, elementaren Eingabe- und Bearbeitungsfunktionen sowie der Bildschirm- und Druckausgabe. Seine weite Verbreitung verdankt AutoCAD jedoch der Fähigkeit, Zusatzprogramme - sogenannte "Applikationen" - von Drittanbietern einzubinden. Von SCOP-Anwendern wurde der Wunsch geäußert, ein Geländemodell, welches mit SCOP erstellt wurde, in AutoCAD zu übernehmen. Aufgabe ist also, die Geländefläche des SCOP- Modells mit Datenelementen von AutoCAD darzustellen. Zentrale Themen dieser Arbeit sind:
Bidirektionaler Austausch geographischer Daten zwischen den Formaten DXF und ÖNORM A 2260
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Ingenieurgeodäsie, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. H. Kahmen, Betreuer: Dipl.-Ing. M. Kuhn.
Kurzfassung/Abstract
In dieser Diplomarbeit wird untersucht, in wie weit die (möglichst verlustfreie) Übertragung von geographischen Daten zwischen DXF (Drawing Interchange Format von Autodesk AG) und ÖNORM A2260 (Datenschnittstelle für den digitalen Austausch von Geodaten, im Folgenden nur mehr ÖNORM genannt) möglich ist.
Zunächst wird die Struktur der beiden Datenformate vorgestellt. Es stellt sich dabei heraus, daß der Aufbau sehr unterschiedlich ist. Weiters muß beim DXF-Format zwischen "einfachem" und "erweitertem" Format unterschieden werden. Durch Letzteres ist es im Prinzip möglich, ähnliche Datenstrukturen wie im ÖNORM-Format aufzubauen - dieses Format ist wesentlich komplexer gestaltet - wodurch ein verlustfreier Datenaustausch möglich wäre. Wie in Kapitel 3.1 gezeigt wird, ist es jedoch nicht sinnvoll, dieses Format bei der Konvertierung zu berücksichtigen. Es wird daher nur das "einfache" DXF-Format behandelt, wodurch sich die Übertragung im Wesentlichen auf die geometrischen Informationen reduziert, d.h. daß dadurch keine Sachdaten (z.B. Durchmesser eines Kanals, Stärke einer Stromleitung) übertragen werden können.
Durch die unterschiedlichen Formate ist es nötig, einen Mechanismus zu entwickeln, um eine automatische Übersetzung von einem in das andere Datenformat durchführen zu können. Dies wird hier durch Übersetzungstabellen realisiert. In den Kapiteln 3.0 wird der Übersetzungsvorgang sowohl von DXF nach ÖNORM als auch von ÖNORM nach DXF für jedes Element bzw. jede Nachricht durchdacht, wobei auf zu beachtende Besonderheiten hingewiesen wird. Diese Diplomarbeit kann daher zur Entwicklung eines DXF-ÖNORM- Konvertierungsprogramms benutzt werden.
Zum Schluß wird versucht, die Gemeinsamkeiten der beiden Formate herauszuarbeiten und gegenüberzustellen, auch wenn die Formate sehr unterschiedlich aufgebaut sind.
Im Anhang wird als Beispiel ein Katasterplan mit Versorgungsleitungen (Kanal, Stromleitung) gezeigt, der zur Veranschaulichung der Übersetzungsvorgänge dienen soll und auf den bei der Beschreibung der Übersetzung der einzelnen Entitäten Bezug genommen wird. Es wird zunächst der Plan selbst dargestellt. In den darauffolgenden Abschnitten werden dann der Plan im ÖNORM- und DXF- Format sowie die zur Übersetzung dieses Plans notwendigen Tabellen gezeigt.
In dieser Diplomarbeit wird untersucht, in wie weit die (möglichst verlustfreie) Übertragung von geographischen Daten zwischen DXF (Drawing Interchange Format von Autodesk AG) und ÖNORM A2260 (Datenschnittstelle für den digitalen Austausch von Geodaten, im Folgenden nur mehr ÖNORM genannt) möglich ist.
Zunächst wird die Struktur der beiden Datenformate vorgestellt. Es stellt sich dabei heraus, daß der Aufbau sehr unterschiedlich ist. Weiters muß beim DXF-Format zwischen "einfachem" und "erweitertem" Format unterschieden werden. Durch Letzteres ist es im Prinzip möglich, ähnliche Datenstrukturen wie im ÖNORM-Format aufzubauen - dieses Format ist wesentlich komplexer gestaltet - wodurch ein verlustfreier Datenaustausch möglich wäre. Wie in Kapitel 3.1 gezeigt wird, ist es jedoch nicht sinnvoll, dieses Format bei der Konvertierung zu berücksichtigen. Es wird daher nur das "einfache" DXF-Format behandelt, wodurch sich die Übertragung im Wesentlichen auf die geometrischen Informationen reduziert, d.h. daß dadurch keine Sachdaten (z.B. Durchmesser eines Kanals, Stärke einer Stromleitung) übertragen werden können.
Durch die unterschiedlichen Formate ist es nötig, einen Mechanismus zu entwickeln, um eine automatische Übersetzung von einem in das andere Datenformat durchführen zu können. Dies wird hier durch Übersetzungstabellen realisiert. In den Kapiteln 3.0 wird der Übersetzungsvorgang sowohl von DXF nach ÖNORM als auch von ÖNORM nach DXF für jedes Element bzw. jede Nachricht durchdacht, wobei auf zu beachtende Besonderheiten hingewiesen wird. Diese Diplomarbeit kann daher zur Entwicklung eines DXF-ÖNORM- Konvertierungsprogramms benutzt werden.
Zum Schluß wird versucht, die Gemeinsamkeiten der beiden Formate herauszuarbeiten und gegenüberzustellen, auch wenn die Formate sehr unterschiedlich aufgebaut sind.
Im Anhang wird als Beispiel ein Katasterplan mit Versorgungsleitungen (Kanal, Stromleitung) gezeigt, der zur Veranschaulichung der Übersetzungsvorgänge dienen soll und auf den bei der Beschreibung der Übersetzung der einzelnen Entitäten Bezug genommen wird. Es wird zunächst der Plan selbst dargestellt. In den darauffolgenden Abschnitten werden dann der Plan im ÖNORM- und DXF- Format sowie die zur Übersetzung dieses Plans notwendigen Tabellen gezeigt.
Korrelationsmodellierung von GPS-Signalen
Abteilung für Allgemeine Geodäsie und Ingenieurgeodäsie, TU-Graz, 1997. Begutachter und Betreuer: Univ.- Prof. Dr. F.K. Brunner
Kurzfassung/Abstract
Die Fehlerangaben der Koordinaten von GPS-Auswertungen sind sehr unrealistisch, da sie um einen Faktor 3-5 zu klein sind. Dieser Effekt konnte bereits aufgrund Wiederholungsmessungen, und der daraus resultierenden Diskrepanz zwischen innerer und äußerer Genauigkeit nachgewiesen werden. Darum ist es unumgänglich ein geeignetes Kovarianzmodell der Beobachtungen zu finden, um diese innere Genauigkeit mit der äußeren in Einklang zu bringen. Hierfür ist die Berücksichtigung der physikalischen Korrelation neben der mathematischen notwendig. Als erstes galt es die Größenordnung und Dauer dieser Korrelation festzustellen. Dies geschah einerseits mittels Untersuchung von Doppeldifferenzresiduen anhand von Autokorrelationsfunktionen und andererseits durch Reduzierung der Datenmenge mit unterschiedlichen Samplingintervallen. Da keine zeitliche Korrelation nachgewiesen werden konnte, richtete sich das Hauptaugenmerk auf räumliche Korrelationen. Diese wurden über die Kovarianzmatrix der Trägerphasenbeobachtungen involviert. Nach der Programmierung einer Schnittstelle aus der Berner-Software konnten alle gewonnenen Erkenntnisse anhand praktischer Anwendungen erprobt werden. Dies erfolgte durch Programmierung eines Ausgleichs und einer neuen Kovarianzmatrix mit dem Softwarepaket MATLAB.
Die Fehlerangaben der Koordinaten von GPS-Auswertungen sind sehr unrealistisch, da sie um einen Faktor 3-5 zu klein sind. Dieser Effekt konnte bereits aufgrund Wiederholungsmessungen, und der daraus resultierenden Diskrepanz zwischen innerer und äußerer Genauigkeit nachgewiesen werden. Darum ist es unumgänglich ein geeignetes Kovarianzmodell der Beobachtungen zu finden, um diese innere Genauigkeit mit der äußeren in Einklang zu bringen. Hierfür ist die Berücksichtigung der physikalischen Korrelation neben der mathematischen notwendig. Als erstes galt es die Größenordnung und Dauer dieser Korrelation festzustellen. Dies geschah einerseits mittels Untersuchung von Doppeldifferenzresiduen anhand von Autokorrelationsfunktionen und andererseits durch Reduzierung der Datenmenge mit unterschiedlichen Samplingintervallen. Da keine zeitliche Korrelation nachgewiesen werden konnte, richtete sich das Hauptaugenmerk auf räumliche Korrelationen. Diese wurden über die Kovarianzmatrix der Trägerphasenbeobachtungen involviert. Nach der Programmierung einer Schnittstelle aus der Berner-Software konnten alle gewonnenen Erkenntnisse anhand praktischer Anwendungen erprobt werden. Dies erfolgte durch Programmierung eines Ausgleichs und einer neuen Kovarianzmatrix mit dem Softwarepaket MATLAB.
Meßsystemuntersuchung des Neigungsmessers Nivel 20
Abteilung für Allgemeine Geodäsie und Ingenieurgeodäsie, TU Graz, 1997. Begutachter: Univ.-Prof. Dr. F. K. Brunner, Betreuer: Dr. A. Reithofer.
Kurzfassung/Abstract
Die elektronische Libelle Nivell 20, der Firma Kern-Leica, die das präzise Messen von Neigungsänderungen in zwei Achsenrichtungen erlaubt, war hinsichtlich ihrer Leistungsfähigkeit zu untersuchen. In Hinsicht auf praktische Messungen und auf eine Messsystemüberprüfung im Messlabor wurden Untersätze und Konsolen auf deren Stabilität und thermisches Verhalten getestet. Der Vergleich zweier Nivel 20, eine Justierüberprüfung und die Bestimmung der Einspielgenauigkeiten bei Wiederholungsmessungen wurden auf einem Neigungstisch durchgeführt. Die ermittelten Einspielfehler entsprachen bei einem Sensor den Werksangaben, während beim zweiten Nivel 20 ein größerer Einspielfehler gemessen wurde. Bei gleichen Einspielzeiten wurde festgestellt, daß kleinere Neigungsänderungen wahrscheinlich auf Grund der Trägheit des Flüssigkeitshorizontes schlechter erfasst werden. Weiters wurde das Messsystem bei Setzungsmessungen an einem Wohnhaus, und zum Einrichten der Schienen einer Bandsäge praktisch eingesetzt. Für einen ONLINE-Betrieb und eine Kommunikation zwischen dem Sensor und einem PC wurde mit Hilfe der grafischen Programmiersprache LABVIEW ein entsprechendes Schnittstellenprogramm für die RS 232 Schnittstelle erstellt. MIt dem Programm Nivel 20.VI kann das Datenanzeige und Speichergerät Psion Organizer von Kern-Leica vollständig ersetzt werden.
Die elektronische Libelle Nivell 20, der Firma Kern-Leica, die das präzise Messen von Neigungsänderungen in zwei Achsenrichtungen erlaubt, war hinsichtlich ihrer Leistungsfähigkeit zu untersuchen. In Hinsicht auf praktische Messungen und auf eine Messsystemüberprüfung im Messlabor wurden Untersätze und Konsolen auf deren Stabilität und thermisches Verhalten getestet. Der Vergleich zweier Nivel 20, eine Justierüberprüfung und die Bestimmung der Einspielgenauigkeiten bei Wiederholungsmessungen wurden auf einem Neigungstisch durchgeführt. Die ermittelten Einspielfehler entsprachen bei einem Sensor den Werksangaben, während beim zweiten Nivel 20 ein größerer Einspielfehler gemessen wurde. Bei gleichen Einspielzeiten wurde festgestellt, daß kleinere Neigungsänderungen wahrscheinlich auf Grund der Trägheit des Flüssigkeitshorizontes schlechter erfasst werden. Weiters wurde das Messsystem bei Setzungsmessungen an einem Wohnhaus, und zum Einrichten der Schienen einer Bandsäge praktisch eingesetzt. Für einen ONLINE-Betrieb und eine Kommunikation zwischen dem Sensor und einem PC wurde mit Hilfe der grafischen Programmiersprache LABVIEW ein entsprechendes Schnittstellenprogramm für die RS 232 Schnittstelle erstellt. MIt dem Programm Nivel 20.VI kann das Datenanzeige und Speichergerät Psion Organizer von Kern-Leica vollständig ersetzt werden.
Untersuchung von Einflußfaktoren auf die Genauigkeit von Monoplotting beim Einsatz für forstliche Zwecke
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuer: Dr. F. Hochstöger.
Kurzfassung/Abstract
Aufgabe der vorliegenden Arbeit ist es, Möglichkeiten und Grenzen von Monoplotting, einem photogrammetrischen Verfahren der Einzelbildauswertung, beim Einsatz in der Forstwirtschaft aufzuzeigen. Es wird zunächst eine Darstellung der theoretischen Grundlagen und Voraussetzungen geboten. Anhand einer empirischen Untersuchung im Raum StAnton/Stanzertal werden die verschiedenen Einflußfaktoren auf die Genauigkeit von Monoplotting analysiert.
Die Monoplotting-Ergebnisse zweier Höhenmodelle verschiedener Genauigkeit werden verglichen und im Hinblick auf die Bildgeometrie, den Schnittwinkel des Abbildungsstrahls mit dem Gelände und die Höhendifferenz der beiden Geländemodelle, analysiert.
Das speziell in der Forstwirtschaft auftretende Problem der radialen Bildversetzung wirkt sich beträchtlich auf die Auswertegenauigkeit von Monoplotting aus und wird hinsichtlich verschiedener Einflußfaktoren im Vergleich mit einer Stereoauswertung untersucht.
Möglichst isoliert wird der Einfluß einzelner Orientierungselemente auf die Monolotting-Ergebnisse diskutiert und anhand von zahlreichen Plots visualisiert.
Es liegt in der Verantwortung des Forstwirtes, sich dieser Fehlereinflüsse bei der praktischen Arbeit bewußt zu sein um mit großer Sorgfalt umzugehen. Im Einzelfall sind die Vor- und vNachteile von Monoplotting abzuwägen und die Entscheidung entweder für das billigere und ungenauere Monoplotting oder für die teurere und genauere Stereoauswertung zu treffen.
Aufgabe der vorliegenden Arbeit ist es, Möglichkeiten und Grenzen von Monoplotting, einem photogrammetrischen Verfahren der Einzelbildauswertung, beim Einsatz in der Forstwirtschaft aufzuzeigen. Es wird zunächst eine Darstellung der theoretischen Grundlagen und Voraussetzungen geboten. Anhand einer empirischen Untersuchung im Raum StAnton/Stanzertal werden die verschiedenen Einflußfaktoren auf die Genauigkeit von Monoplotting analysiert.
Die Monoplotting-Ergebnisse zweier Höhenmodelle verschiedener Genauigkeit werden verglichen und im Hinblick auf die Bildgeometrie, den Schnittwinkel des Abbildungsstrahls mit dem Gelände und die Höhendifferenz der beiden Geländemodelle, analysiert.
Das speziell in der Forstwirtschaft auftretende Problem der radialen Bildversetzung wirkt sich beträchtlich auf die Auswertegenauigkeit von Monoplotting aus und wird hinsichtlich verschiedener Einflußfaktoren im Vergleich mit einer Stereoauswertung untersucht.
Möglichst isoliert wird der Einfluß einzelner Orientierungselemente auf die Monolotting-Ergebnisse diskutiert und anhand von zahlreichen Plots visualisiert.
Es liegt in der Verantwortung des Forstwirtes, sich dieser Fehlereinflüsse bei der praktischen Arbeit bewußt zu sein um mit großer Sorgfalt umzugehen. Im Einzelfall sind die Vor- und vNachteile von Monoplotting abzuwägen und die Entscheidung entweder für das billigere und ungenauere Monoplotting oder für die teurere und genauere Stereoauswertung zu treffen.
Aufdeckung von numerischen Problemen in geodätischer Software
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Geoinformation und Landesvermessung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. A. Frank, Betreuer: Dipl.-Ing. M. Staudinger.
Kurzfassung/Abstract
Durch die Automatisierung der Berechnungsvorgänge sind die Anforderungen an geodätische Software stark gestiegen. Jede Automatisierung nimmt dem Benutzer die direkte Kontrollmöglichkeit. Das verlangt aber von der Software ein großes Maß an Sicherheit und Intelligenz.
Speziell numerische Schwachstellen führen zu versteckten Fehlern oder verursachen Programmabstürze. Versteckte Fehler liefern keine ganz falschen Ergebnisse und werden deshalb nicht sofort erkannt. Ein Programmabsturz kann zu Datenverlusten führen. Der Schwerpunkt dieser Arbeit liegt deshalb im Auffinden von numerischen Fehlern.
Das Ziel der Arbeit war die Ausarbeitung von konkreten Tests, mit deren Hilfe jeder Anwender seine Software in Hinblick auf numerische Schwachstellen untersuchen kann. Es wurden Werkzeuge und eine genaue Anleitung zum Programmtest erarbeitet.
Die Methoden kommen aus dem Bereich der Softwareentwicklung, der sich mit dem Testen von Programmen beschäftigt. Das Programm wird als BlackBox gesehen, in die Eingaben gemacht und Ausgaben erwartet werden. In einer Testvorschrift wird für jeden Testfall die genaue Anleitung zur Durchführung des Testes, die eigentlichen Testdaten und schließlich die richtigen Ergebnisse angegeben. Bei der Beurteilung der Testergebnisse wurde die Norm DIN 66272 "Bewerten von Softwareprodukten" herangezogen. Ein Beurteilungsschema wurde erarbeitet, mit dem die einzelnen Testfälle eingestuft und beurteilt werden können.
Zur Überprüfung der Wirksamkeit der ausgearbeiteten Testfälle wurden zwei Softwareprodukte untersucht und bewertet. Das Ergebnis zeigt, daß die Tests in der Lage sind, numerische Schwachstellen zu finden und Qualitätsunterschiede zwischen den einzelnen Programmen festzustellen.
Durch die Automatisierung der Berechnungsvorgänge sind die Anforderungen an geodätische Software stark gestiegen. Jede Automatisierung nimmt dem Benutzer die direkte Kontrollmöglichkeit. Das verlangt aber von der Software ein großes Maß an Sicherheit und Intelligenz.
Speziell numerische Schwachstellen führen zu versteckten Fehlern oder verursachen Programmabstürze. Versteckte Fehler liefern keine ganz falschen Ergebnisse und werden deshalb nicht sofort erkannt. Ein Programmabsturz kann zu Datenverlusten führen. Der Schwerpunkt dieser Arbeit liegt deshalb im Auffinden von numerischen Fehlern.
Das Ziel der Arbeit war die Ausarbeitung von konkreten Tests, mit deren Hilfe jeder Anwender seine Software in Hinblick auf numerische Schwachstellen untersuchen kann. Es wurden Werkzeuge und eine genaue Anleitung zum Programmtest erarbeitet.
Die Methoden kommen aus dem Bereich der Softwareentwicklung, der sich mit dem Testen von Programmen beschäftigt. Das Programm wird als BlackBox gesehen, in die Eingaben gemacht und Ausgaben erwartet werden. In einer Testvorschrift wird für jeden Testfall die genaue Anleitung zur Durchführung des Testes, die eigentlichen Testdaten und schließlich die richtigen Ergebnisse angegeben. Bei der Beurteilung der Testergebnisse wurde die Norm DIN 66272 "Bewerten von Softwareprodukten" herangezogen. Ein Beurteilungsschema wurde erarbeitet, mit dem die einzelnen Testfälle eingestuft und beurteilt werden können.
Zur Überprüfung der Wirksamkeit der ausgearbeiteten Testfälle wurden zwei Softwareprodukte untersucht und bewertet. Das Ergebnis zeigt, daß die Tests in der Lage sind, numerische Schwachstellen zu finden und Qualitätsunterschiede zwischen den einzelnen Programmen festzustellen.
Gegenüberstellung von Genauigkeit und Wirtschaftlichkeit bei einem klassisch und satellitengestützt vermessenen Tunnelnetz am Beispiel Zell am See
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Ingenieurgeodäsie, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. H. Kahmen, Betreuer: Univ.-Doz. Dr. Th. Wunderlich.
Kurzfassung/Abstract
Die Schaffung geeigneter geometrischer Grundlagen für die Absteckung eines Vortriebpolygons respektive der Achse eines Tunnelbauwerks zählt auch heute noch zu den heikelsten und interessantesten Aufgaben in der Ingenieurgeodäsie. Besonderes Interesse wird dabei immer wieder den einsetzbaren Beobachtungsverfahren bzw. -mitteln, den Auswertestrategien und ihren Algorithmen gewidmet.
Mit dem Ausbau des NAVSTAR-GPS in den letzten Jahren wurde den Geodäten ein grundlegend neues Beobachtungsverfahren zur Verfügung gestellt. Mit der Entwicklung leistungsstarker PCs und der entsprechenden notwendigen Software ist auch die Lösung aufwendigerer Ausgleichungsprobleme nicht mehr auf Großrechenanlagen beschränkt, sondern es besteht heute die Möglichkeit einer vollständigen Auswertung vor Ort. Die vorliegende Arbeit gibt eine kurze Übersicht der Grundlagen zur Bestimmung eines Tunnelabstecknetzes sowie von GPS als Meßmittel. Am Beispiel des Umfahrungstunnels Zell am See werden besondere Probleme beim Einsatz von GPS in diesem Anwendungsbereich dargestellt und drei Auswertestrategien beschrieben.
Die drei eingeschlagenen Auswertekonzepte sollten zur Klärung der Fragestellungen nach Genauigkeit und Wirtschaftlichkeit beim Einsatz von GPS zur Grundlagenvermessung im Tunnelbau dienen. Es wurden deshalb eine reine GPS-Lösung, eine terrestrische dreidimensionale Lösung und eine Kombination der beiden ersten erarbeitet.
Für beide Bereiche zeigt sich, daß die flexibelste Lösung, eine Kombination von klassischen terrestrischen Beobachtungen und satellitengeodätischen Verfahren, die größten Vorteile bietet.
Die Schaffung geeigneter geometrischer Grundlagen für die Absteckung eines Vortriebpolygons respektive der Achse eines Tunnelbauwerks zählt auch heute noch zu den heikelsten und interessantesten Aufgaben in der Ingenieurgeodäsie. Besonderes Interesse wird dabei immer wieder den einsetzbaren Beobachtungsverfahren bzw. -mitteln, den Auswertestrategien und ihren Algorithmen gewidmet.
Mit dem Ausbau des NAVSTAR-GPS in den letzten Jahren wurde den Geodäten ein grundlegend neues Beobachtungsverfahren zur Verfügung gestellt. Mit der Entwicklung leistungsstarker PCs und der entsprechenden notwendigen Software ist auch die Lösung aufwendigerer Ausgleichungsprobleme nicht mehr auf Großrechenanlagen beschränkt, sondern es besteht heute die Möglichkeit einer vollständigen Auswertung vor Ort. Die vorliegende Arbeit gibt eine kurze Übersicht der Grundlagen zur Bestimmung eines Tunnelabstecknetzes sowie von GPS als Meßmittel. Am Beispiel des Umfahrungstunnels Zell am See werden besondere Probleme beim Einsatz von GPS in diesem Anwendungsbereich dargestellt und drei Auswertestrategien beschrieben.
Die drei eingeschlagenen Auswertekonzepte sollten zur Klärung der Fragestellungen nach Genauigkeit und Wirtschaftlichkeit beim Einsatz von GPS zur Grundlagenvermessung im Tunnelbau dienen. Es wurden deshalb eine reine GPS-Lösung, eine terrestrische dreidimensionale Lösung und eine Kombination der beiden ersten erarbeitet.
Für beide Bereiche zeigt sich, daß die flexibelste Lösung, eine Kombination von klassischen terrestrischen Beobachtungen und satellitengeodätischen Verfahren, die größten Vorteile bietet.
Das Gebrauchshöhensystem in Österreich - Geschichtliche Entwicklung und derzeitiger Stand
Institut für Theoretische Geodäsie, Abteilung Mathematische Geodäsie und Geoinformatik, TU Graz, 1997. Begutachter: Univ.-Prof. Dr. H. Sünkel, Betreuer: Dr. M. Wieser.
Kurzfassung/Abstract
Nach einem kurzen einführenden Überblick über die Entstehung des Gebrauchshöhensystems in Österreich wird für jede Epoche, vom Beginn der Höhenmessung im 18. Jahrhundert bis zur Gegenwart, ein geschichtlicher Überblick gegeben. Daran schließen jeweils Kapitel über die Planung, Durchführung und Zuständigkeit der Höhenmessung an. Aber auch die verwendeten Meßmittel, die Meßverfahren, die verwendeten Bezugshorizonte und die Genauigkeit dieser Messungen werden für die verschiedenen Epochen beschrieben. Eine tabellarische Zusammenfassung für die einzelnen Epochen steht vor den letzten Kapiteln, die ein Abbildungs-, ein chronologisches und alphabetisches Literaturverzeichnis enthalten.
Nach einem kurzen einführenden Überblick über die Entstehung des Gebrauchshöhensystems in Österreich wird für jede Epoche, vom Beginn der Höhenmessung im 18. Jahrhundert bis zur Gegenwart, ein geschichtlicher Überblick gegeben. Daran schließen jeweils Kapitel über die Planung, Durchführung und Zuständigkeit der Höhenmessung an. Aber auch die verwendeten Meßmittel, die Meßverfahren, die verwendeten Bezugshorizonte und die Genauigkeit dieser Messungen werden für die verschiedenen Epochen beschrieben. Eine tabellarische Zusammenfassung für die einzelnen Epochen steht vor den letzten Kapiteln, die ein Abbildungs-, ein chronologisches und alphabetisches Literaturverzeichnis enthalten.
Objektschlüsselkatalog im Internet
Institut für Theoretische Geodäsie, Abteilung Mathematische Geodäsie und Geoinformatik, TU Graz, 1997. Begutachter und Betreuer: Univ.-Doz. Dr. N. Bartelme.
Kurzfassung/Abstract
Die nationale und internationale Vernetzung liefert einen wesentlichen Beitrag zum rasch wachsenden Markt von Geodaten, das sind Daten, deren Bezug zur Erdoberfläche ein wesentliches Kennzeichen ist. Das Internet als weltweiter Marktplatz wird auch für Geodaten immer interessanter.
Objektschlüsselkataloge sind ein wesentlicher Teil, um Datentransfers ohne Kommunikation von Mensch zu Mensch funktionierend ablaufen zu lassen. Es erscheint daher sinnvoll, solche Sammlungen dort einzubinden, wo auch die "Geschäfte" abgewickelt werden.
Eine große Sammlung, wie sie die Objektschlüsselkataloge darstellen, kann durch die Möglichkeiten des Mediums Internet in kleine überschaubare Einheiten aufgespalten werden und über Querverweise verbunden sein. Ein Auffinden der Objekte über Synonymbegriffe ermöglicht auch Laien den Zugang zum Objektschlüsselkatalog, eine Einbindung von sensitiven Graphiken kann als Ersatz für die Legende in einem digitalen Datensatz dienen. Photos und beispielhafte Transferdaten, aber auch Visualisierungen der Objekte in Plänen können die Anschaulichkeit eines solchen Systems erhöhen. Aufnahmerichtlinien und Codetabellen erleichtern die Feldarbeit und lassen einen durchgehenden digitalen Datenfluß von der Aufnahme bis zum Geo-Datensatz sinnvoll erscheinen.
Ein Prototyp mit der beispielhaften Realisierung einiger Vorschläge ist im Internet eingebracht und wird sich den Ansprüchen der Realität zu stellen haben.
Die nationale und internationale Vernetzung liefert einen wesentlichen Beitrag zum rasch wachsenden Markt von Geodaten, das sind Daten, deren Bezug zur Erdoberfläche ein wesentliches Kennzeichen ist. Das Internet als weltweiter Marktplatz wird auch für Geodaten immer interessanter.
Objektschlüsselkataloge sind ein wesentlicher Teil, um Datentransfers ohne Kommunikation von Mensch zu Mensch funktionierend ablaufen zu lassen. Es erscheint daher sinnvoll, solche Sammlungen dort einzubinden, wo auch die "Geschäfte" abgewickelt werden.
Eine große Sammlung, wie sie die Objektschlüsselkataloge darstellen, kann durch die Möglichkeiten des Mediums Internet in kleine überschaubare Einheiten aufgespalten werden und über Querverweise verbunden sein. Ein Auffinden der Objekte über Synonymbegriffe ermöglicht auch Laien den Zugang zum Objektschlüsselkatalog, eine Einbindung von sensitiven Graphiken kann als Ersatz für die Legende in einem digitalen Datensatz dienen. Photos und beispielhafte Transferdaten, aber auch Visualisierungen der Objekte in Plänen können die Anschaulichkeit eines solchen Systems erhöhen. Aufnahmerichtlinien und Codetabellen erleichtern die Feldarbeit und lassen einen durchgehenden digitalen Datenfluß von der Aufnahme bis zum Geo-Datensatz sinnvoll erscheinen.
Ein Prototyp mit der beispielhaften Realisierung einiger Vorschläge ist im Internet eingebracht und wird sich den Ansprüchen der Realität zu stellen haben.
Vermessung und Geoinformation in Österreich - Aufbau eines Informationsservice im World Wide Web
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. P. Waldhäusl, Betreuer: Dr. F. Hochstöger.
Kurzfassung/Abstract
Kaum jemandem dürfte entgangen sein, daß in den Medien ständig über den Informationshighway berichtet wird und in diesem Zusammenhang Schlagworte wie Internet und World Wide Web erwähnt werden - einer Computerkommunikationswelt, die bislang vorwiegend von Universitäten und Forschungsinstitutionen genutzt wird. Inzwischen erfolgte eine rasche Ausbreitung dieses neuen Mediums auf Privatwirtschaft, Politik und Behörden. Im Rahmen dieser Diplomarbeit soll nun ein Informationsservice aufgebaut werden, das auf Basis dieses Mediums eine möglichst umfassende Darstellung der Bereiche Vermessung und Geoinformation in Österreich liefert. Neben der Beschreibung der Termini Internet und World Wide Web samt ihren technischen Voraussetzungen wird der prinzipielle Aufbau eines Informationsservice und dessen praktische Durchführung erläutert. Das beinhaltet die Auswahl von Hard- und Software, Informations- und Strukturplanungen sowie die Erstellung von Dokumenten. Darüber hinaus werden Lösungsvorschläge hinsichtlich der Wartung sowie der System- und Kommunikationssicherheit erarbeitet und Überlegungen in rechtlichen Belangen angeführt, wobei die Dynamik des World Wide Web, vor allem seiner Sprache HTML, nicht außer acht gelassen wird. Die in dieser Arbeit erwähnten Verfahren und Methoden wurden auf einem Server des Instituts für Photogrammetrie und Fernerkundung an der TU Wien auch in der Praxis erprobt und zum Teil umgesetzt.
Kaum jemandem dürfte entgangen sein, daß in den Medien ständig über den Informationshighway berichtet wird und in diesem Zusammenhang Schlagworte wie Internet und World Wide Web erwähnt werden - einer Computerkommunikationswelt, die bislang vorwiegend von Universitäten und Forschungsinstitutionen genutzt wird. Inzwischen erfolgte eine rasche Ausbreitung dieses neuen Mediums auf Privatwirtschaft, Politik und Behörden. Im Rahmen dieser Diplomarbeit soll nun ein Informationsservice aufgebaut werden, das auf Basis dieses Mediums eine möglichst umfassende Darstellung der Bereiche Vermessung und Geoinformation in Österreich liefert. Neben der Beschreibung der Termini Internet und World Wide Web samt ihren technischen Voraussetzungen wird der prinzipielle Aufbau eines Informationsservice und dessen praktische Durchführung erläutert. Das beinhaltet die Auswahl von Hard- und Software, Informations- und Strukturplanungen sowie die Erstellung von Dokumenten. Darüber hinaus werden Lösungsvorschläge hinsichtlich der Wartung sowie der System- und Kommunikationssicherheit erarbeitet und Überlegungen in rechtlichen Belangen angeführt, wobei die Dynamik des World Wide Web, vor allem seiner Sprache HTML, nicht außer acht gelassen wird. Die in dieser Arbeit erwähnten Verfahren und Methoden wurden auf einem Server des Instituts für Photogrammetrie und Fernerkundung an der TU Wien auch in der Praxis erprobt und zum Teil umgesetzt.
Implementierung der Schnittstellen ÖNORM A2260 und ÖNORM A2261 für das Programm TERRACAD
Institut für Theoretische Geodäsie, Abteilung Mathematische Geodäsie und Geoinformatik, TU Graz, 1997. Begutachter und Betreuer: Univ.-Doz. Dr. N. Bartelme.
Kurzfassung/Abstract
Aufgrund der zunehmenden Verbreitung von CAD- und GIS-Systemen entsteht häufig der Wunsch, Geodaten mit anderen Programmen auszutauschen. Da die CAD-Programme unterschiedliche Datenformate benutzen, ist dies jedoch nur nach vorhergehender Umwandlung möglich. Solche Geodaten werden entweder direkt in das gewünschte Format konvertiert, oder es wird eine neutrale Schnittstelle, die von beiden Programmen verstanden wird, zwischengeschaltet. Diese neutralen Formate gewinnen immer mehr an Bedeutung, weil darüber zusätzlich eine Anbindung an Anschlußprogramme erfolgen kann, aber auch deswegen, weil es ökonomischer ist, pro System nur eine Schnittstelle warten zu müssen.
Die meisten Schnittstellen arbeiten mit leicht übertragbaren ASCII-Dateien. Einige bekannte Austauschformate wären DXF, SET, IGES, STEP oder HPGL, aber all diese Datenschnittstellen sind für den digitalen Austausch von Geodaten ungeeignet. Jedes dieser Formate beinhaltet zwar die Geometrie und Grafik, läßt aber die Semantik, und im Prinzip auch die Topologie, vermissen.
Die Schwierigkeiten des digitalen Austausches von Geodaten werden von den besonderen Eigenschaften solcher Daten geprägt. Ihre Beschaffenheit drückt sich, wie zuvor angedeutet, in der Geometrie und Topologie aus, sodann in der starken Betonung der Graphik, die nicht nur als illustratives Element, sondern teilweise als selbstständiger Informationsträger verwendet wird und schließlich in der Semantik der Daten und ihrer Komplexität von Verarbeitungsvorschriften und Konventionen.
Die ÖNORM A2260 wurde erstmals im Juni 1990 veröffentlicht, durch den Fortschritt auf dem Gebiet der Geoinformation und durch Einführung der ÖNORM A2261 weiterentwickelt worden und ist am 1. März 1997 neu erschienen. Man arbeitet auch europaweit auf dem Gebiet der Geoinformatik. Das Ergebnis wird in einigen Jahren eine CEN-Norm sein, die dann auch für Österreich Gültigkeit haben wird.
Die ÖNORM A2260 dient zum Austausch strukturierter Geodaten zwischen verschiedenen Nutzern, unabhängig von konkreten Systemen, Datenbanken, Anwendungen und Datenschemen. Diese strukturierten Geodaten werden in Extrakten und Objekten abgebildet. Um derartige Strukturen digital übertragen zu können, müssen diese genauen Codierungsregeln genügen.
Zur Übertragung von Objekten in entsprechenden Extrakten ist ein Objektschlüssel notwendig. Derzeit ist nur jener für den Naturbestand (ÖNORM A2261) in Kraft; Themenbereiche wie Grundstücks- und Leitungskataster sind jedoch in Vorbereitung.
In dieser Diplomarbeit wird das konzeptionelle Gerüst für die Implementierung der ÖNORM-Datenschnittstelle A2260 und des dazugehörigen Objektschlüsselkataloges A2261 für das Programmsystem TERRACAD vorgestellt.
TERRACAD ist ein graphisches, interaktives CAD-System des gehobenen PC-Bereiches, das aus der Weiterentwicklung des Systems MEMOPLOT entstanden ist. Es wurde vollständig in Österreich entwickelt (Mathematisches Institut der Universität Salzburg), wobei die Entwicklung in engster Zusammenarbeit mit der Praxis durchgeführt wurde. Die Applikation im Bereich der Geoinformatik erscheint unter dem Namen TERRAGIS.
TERRACAD bietet zwar schon eine Reihe von Austauschformaten, wie DXF, SICAD GDB, verschiedene ASCII-Formate für Längs- und Querprofile usw., aber auch die DDE- und ODBC-Schnittstelle, an, aber keines von diesen ist für die Übertragung von Geodaten geeignet.
TERRACAD bietet neben speziellen Anwendungen für die Geoäsie auch TERRACAD-spezifische Optionen, wie Symbollinien, linienbegleitende Symbole, automatische Böschungsschraffuren, Deskriptoren und Figurendeskriptoren, an, die für die Umsetzung der ÖNORM A2260 und A2261 verwendet werden können.
Die Datenstruktur von TERRACAD, vor allem die Figurenstruktur mit den Figurendeskriptoren, fügt sich sehr gut in die Struktur der ÖNORM ein. Für die Mehrzahl der Objekte ergeben sich einheitliche Strukturierungs- und Übertragungsmodalitäten, so werden Punktobjekte vorwiegend als Symbole (mit oder ohne graphischer Ausprägung) abgebildet. Die Attribute eines Linienobjektes werden mit Hilfe der Figurendeskriptoren übergeben und verwaltet, zudem werden für spezielle Objekte Symbollinien und linienbegleitende Symbole verwendet. Für Flächenobjekte werden in TERRACAD "Flächenfiguren" erzeugt und Komplexobjekte werden als Hauptfiguren behandelt.
Vor der Übertragung aus dem System TERRACAD muß die entsprechende Zeichnung natürlich einige Prüfroutinen durchlaufen, desweiteren gibt es auch einige Einschränkungen und Vereinbarungen, die bei der Erstellung einer Zeichnung beachtet werden müssen.
Weiters sollte man bei der Implementierung der Schnittstelle A2260 darauf achten, daß man die Fähigkeiten des eigenen Systems ausschöpft, aber nicht mehr. Das heißt, daß die Schnittstelle nicht mehr soll bieten können, als das eigene System fähig ist zu leisten.
Aufgrund der zunehmenden Verbreitung von CAD- und GIS-Systemen entsteht häufig der Wunsch, Geodaten mit anderen Programmen auszutauschen. Da die CAD-Programme unterschiedliche Datenformate benutzen, ist dies jedoch nur nach vorhergehender Umwandlung möglich. Solche Geodaten werden entweder direkt in das gewünschte Format konvertiert, oder es wird eine neutrale Schnittstelle, die von beiden Programmen verstanden wird, zwischengeschaltet. Diese neutralen Formate gewinnen immer mehr an Bedeutung, weil darüber zusätzlich eine Anbindung an Anschlußprogramme erfolgen kann, aber auch deswegen, weil es ökonomischer ist, pro System nur eine Schnittstelle warten zu müssen.
Die meisten Schnittstellen arbeiten mit leicht übertragbaren ASCII-Dateien. Einige bekannte Austauschformate wären DXF, SET, IGES, STEP oder HPGL, aber all diese Datenschnittstellen sind für den digitalen Austausch von Geodaten ungeeignet. Jedes dieser Formate beinhaltet zwar die Geometrie und Grafik, läßt aber die Semantik, und im Prinzip auch die Topologie, vermissen.
Die Schwierigkeiten des digitalen Austausches von Geodaten werden von den besonderen Eigenschaften solcher Daten geprägt. Ihre Beschaffenheit drückt sich, wie zuvor angedeutet, in der Geometrie und Topologie aus, sodann in der starken Betonung der Graphik, die nicht nur als illustratives Element, sondern teilweise als selbstständiger Informationsträger verwendet wird und schließlich in der Semantik der Daten und ihrer Komplexität von Verarbeitungsvorschriften und Konventionen.
Die ÖNORM A2260 wurde erstmals im Juni 1990 veröffentlicht, durch den Fortschritt auf dem Gebiet der Geoinformation und durch Einführung der ÖNORM A2261 weiterentwickelt worden und ist am 1. März 1997 neu erschienen. Man arbeitet auch europaweit auf dem Gebiet der Geoinformatik. Das Ergebnis wird in einigen Jahren eine CEN-Norm sein, die dann auch für Österreich Gültigkeit haben wird.
Die ÖNORM A2260 dient zum Austausch strukturierter Geodaten zwischen verschiedenen Nutzern, unabhängig von konkreten Systemen, Datenbanken, Anwendungen und Datenschemen. Diese strukturierten Geodaten werden in Extrakten und Objekten abgebildet. Um derartige Strukturen digital übertragen zu können, müssen diese genauen Codierungsregeln genügen.
Zur Übertragung von Objekten in entsprechenden Extrakten ist ein Objektschlüssel notwendig. Derzeit ist nur jener für den Naturbestand (ÖNORM A2261) in Kraft; Themenbereiche wie Grundstücks- und Leitungskataster sind jedoch in Vorbereitung.
In dieser Diplomarbeit wird das konzeptionelle Gerüst für die Implementierung der ÖNORM-Datenschnittstelle A2260 und des dazugehörigen Objektschlüsselkataloges A2261 für das Programmsystem TERRACAD vorgestellt.
TERRACAD ist ein graphisches, interaktives CAD-System des gehobenen PC-Bereiches, das aus der Weiterentwicklung des Systems MEMOPLOT entstanden ist. Es wurde vollständig in Österreich entwickelt (Mathematisches Institut der Universität Salzburg), wobei die Entwicklung in engster Zusammenarbeit mit der Praxis durchgeführt wurde. Die Applikation im Bereich der Geoinformatik erscheint unter dem Namen TERRAGIS.
TERRACAD bietet zwar schon eine Reihe von Austauschformaten, wie DXF, SICAD GDB, verschiedene ASCII-Formate für Längs- und Querprofile usw., aber auch die DDE- und ODBC-Schnittstelle, an, aber keines von diesen ist für die Übertragung von Geodaten geeignet.
TERRACAD bietet neben speziellen Anwendungen für die Geoäsie auch TERRACAD-spezifische Optionen, wie Symbollinien, linienbegleitende Symbole, automatische Böschungsschraffuren, Deskriptoren und Figurendeskriptoren, an, die für die Umsetzung der ÖNORM A2260 und A2261 verwendet werden können.
Die Datenstruktur von TERRACAD, vor allem die Figurenstruktur mit den Figurendeskriptoren, fügt sich sehr gut in die Struktur der ÖNORM ein. Für die Mehrzahl der Objekte ergeben sich einheitliche Strukturierungs- und Übertragungsmodalitäten, so werden Punktobjekte vorwiegend als Symbole (mit oder ohne graphischer Ausprägung) abgebildet. Die Attribute eines Linienobjektes werden mit Hilfe der Figurendeskriptoren übergeben und verwaltet, zudem werden für spezielle Objekte Symbollinien und linienbegleitende Symbole verwendet. Für Flächenobjekte werden in TERRACAD "Flächenfiguren" erzeugt und Komplexobjekte werden als Hauptfiguren behandelt.
Vor der Übertragung aus dem System TERRACAD muß die entsprechende Zeichnung natürlich einige Prüfroutinen durchlaufen, desweiteren gibt es auch einige Einschränkungen und Vereinbarungen, die bei der Erstellung einer Zeichnung beachtet werden müssen.
Weiters sollte man bei der Implementierung der Schnittstelle A2260 darauf achten, daß man die Fähigkeiten des eigenen Systems ausschöpft, aber nicht mehr. Das heißt, daß die Schnittstelle nicht mehr soll bieten können, als das eigene System fähig ist zu leisten.
Datenbank für Meßdaten
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Geoinformation und Landesvermessung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. A. Frank, Betreuer: Dipl.-Ing. P. Haunold.
Kurzfassung/Abstract
Mit "Open Survey World" (OSW) stellt die Firma Leica AG ihren vKunden ein Konzept zur Verfügung, das die Datenverarbeitung bzw. das Datenmanagement vereinfachen und erleichtern soll. Dieses Konzept sieht auch ein Datenbankformat GEODB vor, das als Schnittstelle zwischen der Aufnahme und der weiteren Bearbeitung der Daten fungiert. Dieses Format ist sehr stark auf die interne Speicherstruktur der Vermessungsinstrumente von Leica ausgerichtet und daher nur von einem beschränkten Benutzerkreis zu verwenden. Da GEODB in das Konzept von "Open Survey World" eingebunden ist, lassen sich Änderungen oder Erweiterungen nur schwer durchführen. In dieser Arbeit wird daher ein Konzept für ein flexibleres Datenmodell entworfen, das den Ansprüchen eines möglichst großen Kreises von Anwendern entspricht.
Die Diplomarbeit beschränkt sich auf die Entwicklung einer Datenbank, die zur Speicherung und Verwaltung von Meßdaten dient, die bei terrestrischen Beobachtungs- und Punktbestimmungsverfahren anfallen. Verschiedene Meßanordnungen und -abläufe werden untersucht, um ein universelles Entity-Relationship Modell entwerfen zu können. In dieses ER-Modell wird zusätzlich ein Änderungskonzept eingearbeitet. Durch das Konzept soll vermieden werden, daß aufgrund von Änderungen am Datenbestand wichtige Information verlorengeht. Ausgestattet wird die Datenbank mit zwei Routinen für den Import und Export von Daten. Bei der Programmierung wird darauf geachtet, daß die Routinen durch das Einbinden neuer Prozeduren erweiterbar sind. Auf diese Weise können beliebige Datenformate eingelesen und verschiedenste Auswerteprogramme mit Daten beliefert werden. Die Datenbank stellt somit ein flexibles Bindeglied zwischen der Aufnahme im Feld und der weiteren Bearbeitung am Computer dar.
Um die einzelnen Routinen zu testen und die Effizienz der Datenbank zu untersuchen, wurden das Übungsbeispiel einer Netzausgleichung und zwei Aufnahmen aus der Praxis eines Vermessungsbüros herangezogen. Dabei zeigte sich der enorme Vorteil der Datenbank bei der Arbeit mit dem Ausgleichungsprogramm ANAG, das keine Schnittstelle für einen automatischen Datenfluß anbietet. Für die Zukunft wäre es erstrebenswert, das Datenmodell für die Speicherung von GPS-Daten zu erweitern, um auch hybride Netzausgleichungen durchführen zu können. Ein wichtiger Aspekt im Hinblick auf die Neumessung der Festpunktfelder.
Mit "Open Survey World" (OSW) stellt die Firma Leica AG ihren vKunden ein Konzept zur Verfügung, das die Datenverarbeitung bzw. das Datenmanagement vereinfachen und erleichtern soll. Dieses Konzept sieht auch ein Datenbankformat GEODB vor, das als Schnittstelle zwischen der Aufnahme und der weiteren Bearbeitung der Daten fungiert. Dieses Format ist sehr stark auf die interne Speicherstruktur der Vermessungsinstrumente von Leica ausgerichtet und daher nur von einem beschränkten Benutzerkreis zu verwenden. Da GEODB in das Konzept von "Open Survey World" eingebunden ist, lassen sich Änderungen oder Erweiterungen nur schwer durchführen. In dieser Arbeit wird daher ein Konzept für ein flexibleres Datenmodell entworfen, das den Ansprüchen eines möglichst großen Kreises von Anwendern entspricht.
Die Diplomarbeit beschränkt sich auf die Entwicklung einer Datenbank, die zur Speicherung und Verwaltung von Meßdaten dient, die bei terrestrischen Beobachtungs- und Punktbestimmungsverfahren anfallen. Verschiedene Meßanordnungen und -abläufe werden untersucht, um ein universelles Entity-Relationship Modell entwerfen zu können. In dieses ER-Modell wird zusätzlich ein Änderungskonzept eingearbeitet. Durch das Konzept soll vermieden werden, daß aufgrund von Änderungen am Datenbestand wichtige Information verlorengeht. Ausgestattet wird die Datenbank mit zwei Routinen für den Import und Export von Daten. Bei der Programmierung wird darauf geachtet, daß die Routinen durch das Einbinden neuer Prozeduren erweiterbar sind. Auf diese Weise können beliebige Datenformate eingelesen und verschiedenste Auswerteprogramme mit Daten beliefert werden. Die Datenbank stellt somit ein flexibles Bindeglied zwischen der Aufnahme im Feld und der weiteren Bearbeitung am Computer dar.
Um die einzelnen Routinen zu testen und die Effizienz der Datenbank zu untersuchen, wurden das Übungsbeispiel einer Netzausgleichung und zwei Aufnahmen aus der Praxis eines Vermessungsbüros herangezogen. Dabei zeigte sich der enorme Vorteil der Datenbank bei der Arbeit mit dem Ausgleichungsprogramm ANAG, das keine Schnittstelle für einen automatischen Datenfluß anbietet. Für die Zukunft wäre es erstrebenswert, das Datenmodell für die Speicherung von GPS-Daten zu erweitern, um auch hybride Netzausgleichungen durchführen zu können. Ein wichtiger Aspekt im Hinblick auf die Neumessung der Festpunktfelder.
Automationsgestützte Aktualisierung digitaler Landnutzungs-Kartierungen auf der Basis von Fernerkundungsdaten
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuer: Dr. K. Steinnocher.
Kurzfassung/Abstract
Geo-Informationssysteme (GISe) gewinnen in der öffentlichen Verwaltung immer mehr an Bedeutung. Besonders kommunale GISe sind für viele Behörden, Gemeinden und Ämter schon heute wichtige Hilfsmittel bei der Planung und Verwaltung ihrer Aufgabenbereiche (Planung von Bauvorhaben, Erstellung von Stadterweiterungsplänen etc.). Ein Beispiel für eine Datengrundlage eines kommunalen GIS stellt die digitale Realnutzungskartierung der Stadt Wien dar. Sie wurde auf Basis von Luftbildern erstellt. Diese Kartierung liegt in Vektorform vor, wobei die einzelnen Polygone Flächen einheitlicher Nutzung begrenzen. Die thematische Gliederung der Nutzungsarten umfaßt 42 Klassen. Ein wichtiger Punkt bei allen Informationssystemen ist die Aktualität der Daten. Ein GIS mit veralteten oder inkonsistenten Daten kann nicht sinnvoll genutzt werden. Leider ist die Evidenthaltung aber auch ein sehr zeitaufwendiger und kostspieliger Faktor. Eine gängige Methode zur Aktualisierung von Nutzungskartierungen ist der Einsatz von extra zu diesem Zweck hergestellten Luftbildern, wobei anschließend jedes einzelne Polygon mit dem Luftbild verglichen wird. In dieser Arbeit wird ein Konzept präsentiert, wie ein durch Fernerkundungsdaten unterstütztes Überprüfungs- und Korrekturverfahren für vektorbasierte Nutzungskartierungen aussehen könnte. Dieses Konzept sieht vor, daß die analogen Luftbilder durch digitale Satellitenaufnahmen ersetzt werden und der Aufwand der Aktualisierung dadurch reduziert wird, indem nur mehr Gebiete bearbeitet werden müssen, in denen voraussichtlich eine Änderung vorliegt. Darauf aufbauend wurde im Softwarepaket ARC/INFO ein Prototyp einer (menügestützten) Oberfläche programmiert, die eine einfache und rasche Aktualisierung ermöglicht. Für den Test des Prototyps wurden folgende Datensätze verwendet:
Ausschnitte aus der digitalen Realnutzungskartierung der Stadt Wien,
Ergebnisse eines Change-Detection-Verfahrens, welches auf die Bebauungszunahme zwischen 1986 und 1991 hinweist,
eine KFA-3000 Aufnahme vom August 1993 und
eine panchromatische Spot-Aufnahme von 1990.
Die Umsetzung dieses Konzepts in ARC/INFO und eine Fallstudie im Süden von Wien liefern sehr zufriedenstellende Ergebnisse und demonstrieren anschaulich die Leistungsfähigkeit der Fernerkundung bei der Lieferung und Evidenthaltung von Daten für Geo- Informationssysteme.
Geo-Informationssysteme (GISe) gewinnen in der öffentlichen Verwaltung immer mehr an Bedeutung. Besonders kommunale GISe sind für viele Behörden, Gemeinden und Ämter schon heute wichtige Hilfsmittel bei der Planung und Verwaltung ihrer Aufgabenbereiche (Planung von Bauvorhaben, Erstellung von Stadterweiterungsplänen etc.). Ein Beispiel für eine Datengrundlage eines kommunalen GIS stellt die digitale Realnutzungskartierung der Stadt Wien dar. Sie wurde auf Basis von Luftbildern erstellt. Diese Kartierung liegt in Vektorform vor, wobei die einzelnen Polygone Flächen einheitlicher Nutzung begrenzen. Die thematische Gliederung der Nutzungsarten umfaßt 42 Klassen. Ein wichtiger Punkt bei allen Informationssystemen ist die Aktualität der Daten. Ein GIS mit veralteten oder inkonsistenten Daten kann nicht sinnvoll genutzt werden. Leider ist die Evidenthaltung aber auch ein sehr zeitaufwendiger und kostspieliger Faktor. Eine gängige Methode zur Aktualisierung von Nutzungskartierungen ist der Einsatz von extra zu diesem Zweck hergestellten Luftbildern, wobei anschließend jedes einzelne Polygon mit dem Luftbild verglichen wird. In dieser Arbeit wird ein Konzept präsentiert, wie ein durch Fernerkundungsdaten unterstütztes Überprüfungs- und Korrekturverfahren für vektorbasierte Nutzungskartierungen aussehen könnte. Dieses Konzept sieht vor, daß die analogen Luftbilder durch digitale Satellitenaufnahmen ersetzt werden und der Aufwand der Aktualisierung dadurch reduziert wird, indem nur mehr Gebiete bearbeitet werden müssen, in denen voraussichtlich eine Änderung vorliegt. Darauf aufbauend wurde im Softwarepaket ARC/INFO ein Prototyp einer (menügestützten) Oberfläche programmiert, die eine einfache und rasche Aktualisierung ermöglicht. Für den Test des Prototyps wurden folgende Datensätze verwendet:
Kommunale Geoinformationssysteme - Eine Standortbestimmung aufgrund der Analyse von vier exemplarischen Gemeinden
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU Graz, 1997. Begutachter und Betreuer: Univ.-Doz. Dr. N. Bartelme.
Kurzfassung/Abstract
Die vorliegende Arbeit stellt eine Beurteilung der aktuellen Geschehnisse bezüglich Kommunaler Geoinformationssysteme (KIS) in Österreich dar, und zwar nicht im Sinne einer repräsentativen Umfrage, sondern an Hand von vier speziell ausgewählten Gemeinden in Tirol. Die Beschreibungen der einzelnen konkreten Beispiele mit ihren spezifischen Problemen und Lösungsansätzen ermöglichen im gemeinsamen Kontext eine umfassende Situationsdarstellung. Aus der Kombination der beschriebenen vier Projekte mit all ihren Unterschieden ist es für eine andere Kommune möglich, für sich selbst relevante Information bezüglich eines allfälligen KIS Einstiegs zu gewinnen. Zusammenfassend kann gesagt werden, daß es Ziel dieser Diplomarbeit war, das Thema KIS aus der Sicht von vier Einzelbeispielen zu beurteilen, gleichzeitig aber damit in Zusammenhang stehende allgemeine Feststellungen miteinzubeziehen, um darauf aufbauend eine Reihe wichtiger Schlußfolgerungen für die allfällige weitere Realisierung eines Kommunalen Geoinformationssystems ziehen zu können. Das zukünftige Betätigungsfeld des Ingenieurkonsulenten für Vermessungswesen bezüglich Geoinformation wird mit hoher Wahrscheinlichkeit über die bloße Datenerfassung für Kommunale Informationssysteme hinausgehen. Die Chancen und Risiken für einen Zivilingenieur im lokalen KIS-Markt werden in einem eigenen Kapitel behandelt.
Die vorliegende Arbeit stellt eine Beurteilung der aktuellen Geschehnisse bezüglich Kommunaler Geoinformationssysteme (KIS) in Österreich dar, und zwar nicht im Sinne einer repräsentativen Umfrage, sondern an Hand von vier speziell ausgewählten Gemeinden in Tirol. Die Beschreibungen der einzelnen konkreten Beispiele mit ihren spezifischen Problemen und Lösungsansätzen ermöglichen im gemeinsamen Kontext eine umfassende Situationsdarstellung. Aus der Kombination der beschriebenen vier Projekte mit all ihren Unterschieden ist es für eine andere Kommune möglich, für sich selbst relevante Information bezüglich eines allfälligen KIS Einstiegs zu gewinnen. Zusammenfassend kann gesagt werden, daß es Ziel dieser Diplomarbeit war, das Thema KIS aus der Sicht von vier Einzelbeispielen zu beurteilen, gleichzeitig aber damit in Zusammenhang stehende allgemeine Feststellungen miteinzubeziehen, um darauf aufbauend eine Reihe wichtiger Schlußfolgerungen für die allfällige weitere Realisierung eines Kommunalen Geoinformationssystems ziehen zu können. Das zukünftige Betätigungsfeld des Ingenieurkonsulenten für Vermessungswesen bezüglich Geoinformation wird mit hoher Wahrscheinlichkeit über die bloße Datenerfassung für Kommunale Informationssysteme hinausgehen. Die Chancen und Risiken für einen Zivilingenieur im lokalen KIS-Markt werden in einem eigenen Kapitel behandelt.
Digitale Generalisierung versus konventionelle Generalisierung
Institut für Kartographie und Reproduktionstechnik, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. F. Kelnhofer, Betreuer: Dipl.- Ing. A. Pammer.
Kurzfassung/Abstract
Als Alternative zur von vielen Kartographen gehegten Wunschvorstellung von einer digitalen, vollautomatischen Generalisierung mit Hilfe des Computers, stellt die Fa. Intergraph dem Kartographen das Generalisierungspaket Map Generalizer zur Verfügung. Der Map Generalizer ist eine interaktive Generalisierungssoftware, die verschiedenste Algorithmen, wie unter anderem die Elimination, die Vereinfachung und Glättung von Linien und das Zusammenfassen von Flächen anbietet. Ziel dieser Arbeit war nun, anhand der Generalisierung von Gewässer, Höhenschichtlinien und Wald, die Möglichkeiten sowie die Grenzen des Map Generalizer auszutesten. Es wurden sowohl an Einzelbeispielen als auch an einem Ausschnitt aus einer ÖK 50, der für den Maßstab 1:200.000 zu bearbeiten war, die für die Generalisierung dieser Kartenobjekte notwendigen Algorithmen mit ihren zugehörigen Parametern und Parameterkombinationen untersucht.
Bei der Generalisierung des Gewässernetzes hat sich gezeigt, daß es sowohl bei der Glättung als auch bei der Elimination von Flüssen schwierig sein kann, die charakteristischen Eigenheiten zu erhalten. Bei den Höhenlinien ist festzustellen, daß nicht die Kurvenschar (und somit die 3-dimensionale Fläche) generalisiert werden kann, sondern jede Linie für sich bearbeitet werden muß. Höhenlinien und Gewässernetz sollten miteinander vor der Generalisierung verschnitten werden, um so den topographischen Gegebenheiten gerecht zu werden. Für die Generalisierung von Waldflächen hat sich eine iterative Arbeitsweise von Elimination und Zusammenfassung am günstigsten herausgestellt, die zwar aufwendiger ist, den gewünschten Ergebnissen aber am ehesten entspricht.
Trotz einiger Kritikpunkte und Verbesserungsvorschläge ergaben diese Untersuchungen, daß der Map Generalizer vor allem für die Generalisierung in der großmaßstäbigen Kartographie bzw. bei kleinen Maßstabssprüngen, als hilfreiches Werkzeug für den Kartographen Verwendung finden kann.
Als Alternative zur von vielen Kartographen gehegten Wunschvorstellung von einer digitalen, vollautomatischen Generalisierung mit Hilfe des Computers, stellt die Fa. Intergraph dem Kartographen das Generalisierungspaket Map Generalizer zur Verfügung. Der Map Generalizer ist eine interaktive Generalisierungssoftware, die verschiedenste Algorithmen, wie unter anderem die Elimination, die Vereinfachung und Glättung von Linien und das Zusammenfassen von Flächen anbietet. Ziel dieser Arbeit war nun, anhand der Generalisierung von Gewässer, Höhenschichtlinien und Wald, die Möglichkeiten sowie die Grenzen des Map Generalizer auszutesten. Es wurden sowohl an Einzelbeispielen als auch an einem Ausschnitt aus einer ÖK 50, der für den Maßstab 1:200.000 zu bearbeiten war, die für die Generalisierung dieser Kartenobjekte notwendigen Algorithmen mit ihren zugehörigen Parametern und Parameterkombinationen untersucht.
Bei der Generalisierung des Gewässernetzes hat sich gezeigt, daß es sowohl bei der Glättung als auch bei der Elimination von Flüssen schwierig sein kann, die charakteristischen Eigenheiten zu erhalten. Bei den Höhenlinien ist festzustellen, daß nicht die Kurvenschar (und somit die 3-dimensionale Fläche) generalisiert werden kann, sondern jede Linie für sich bearbeitet werden muß. Höhenlinien und Gewässernetz sollten miteinander vor der Generalisierung verschnitten werden, um so den topographischen Gegebenheiten gerecht zu werden. Für die Generalisierung von Waldflächen hat sich eine iterative Arbeitsweise von Elimination und Zusammenfassung am günstigsten herausgestellt, die zwar aufwendiger ist, den gewünschten Ergebnissen aber am ehesten entspricht.
Trotz einiger Kritikpunkte und Verbesserungsvorschläge ergaben diese Untersuchungen, daß der Map Generalizer vor allem für die Generalisierung in der großmaßstäbigen Kartographie bzw. bei kleinen Maßstabssprüngen, als hilfreiches Werkzeug für den Kartographen Verwendung finden kann.
Vergleich elektronischer Neigungsmeßsysteme unter dynamischen Bedingungen
Abteilung für Allgemeine Geodäsie und Ingenieurgeodäsie, TU Graz, 1997. Begutachter: Univ.-Prof. Dr. F.K. Brunner.
Kurzfassung/Abstract
In der vorliegenden Diplomarbeit wurden drei Neigungsmeßsysteme unter dynamischen Bedingungen kritisch untersucht. Die zu erprobenden Meßsysteme waren
das Neigungsmeßsystem Nivel 20 von KERN SWISS
die Neigungsmeßeinheit LCE-R von Dr. SEITNER System- und Sensortechnik GmbH und
der Neigungssensor NS-5/P2 von HL PLANAR Technik.
Um das Verhalten der Meßsysteme auf ihre Einsatzmöglichkeiten zu untersuchen, wurden die drei Neigungsmeßsysteme dynamischen Belastungen auf einem Schwingtisch ausgesetzt. Bei den drei Meßsystemen zeigte sich, daß im höheren Frequenzbereich durchschnittlich geringere Neigungsabweichungen gegenüber einem Sollwert aufgetreten sind. Die maximalen Neigungsabweichungen in diesem Bereich betrugen beim Neigungsmeßsystem Nivel 20 1,7" bei 10,0 Hz, bei der Neigungslibelle LCE-R 0,5" bei 1,8 Hz, beim Neigungssensor NS-5/P2 33,0" bei 10,0 Hz.
Die Erkenntnisse aus den theoretischen Messungen im höheren Frequenzbereich, wonach die drei Neigungsmeßsysteme für Überwachungsmessungen im Maschinenbau geeignet sind, konnten im praktischen Einsatz an einem Kammwalzgetriebe bestätigt werden.
Für Messungen bzw. Überwachungen von großen Bauwerken sind nur noch das Neigungsmeßsystem Nivel 20 und die Neigungslibelle LCE-R zu empfehlen. Die maximalen Neigungsabweichungen im unteren Frequenzbereich gegenüber einem Sollwert betrugen beim Neigungsmeßsystem Nivel 20 2,8" bei 3,7 Hz, bei der Neigungslibelle LCE-R 3,2" bei 1,8 Hz, beim Neigungssensor NS-5/P2 86,0" bei 10,0 Hz
In der vorliegenden Diplomarbeit wurden drei Neigungsmeßsysteme unter dynamischen Bedingungen kritisch untersucht. Die zu erprobenden Meßsysteme waren
Morphen in GIS
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Geoinformation und Landesvermessung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. A. Frank, Betreuerin: Dipl.-Ing. S. Timpf.
Kurzfassung/Abstract
Die vorliegende Arbeit untersucht, inwieweit sich das Verfahren des Morphens eignet, Kartenobjekte aus verschiedenen Maßstäben fließend ineinander zu überführen. In Geographischen Informationssystemen (GIS) werden graphische Daten verschiedener Auflösung gespeichert. Kann man die Daten aus mehreren Maßstabsebenen miteinander verknüpfen, ist es möglich, beim Zoomen Daten aus verschiedenen Ebenen zu verwenden. Beim Wechseln der Maßstabsebenen kann sich die Form eines Objektes, bedingt durch die Generalisierung, beträchtlich ändern. Das irritiert den Benutzer und lenkt ihn von seiner Arbeit ab. Morphen von Objekten löst dieses Problem, indem ein Algorithmus aus zwei Ausgangsformen die Zwischenformen interpoliert. Darin unterscheidet sich das Verfahren vom kartographischen Generalisieren, wo ein Objekt nur in einem Ausgangsmaßstab vorliegt. Es gibt verschiedene Morphverfahren; das Shape Blending, das den Umriß eines Objektes überführt, eignet sich für diesen Zweck besonders. Vorgehensweise dieser Untersuchung ist, einzelne Kartenobjekte in Gruppen einzuteilen und Elemente jeder Gruppe exemplarisch zu überführen. Hauptergebnisse der Arbeit sind eine Definition für gültige Zwischenformen sowie eine Einteilung in überführbare, eingeschränkt-überführbare und nicht- überführbare Kartenobjekte. Die meisten Einschränkungen entstehen, wenn der Algorithmus die ursprüngliche Form eines Objektes nicht verarbeiten kann. Diese Probleme können gelöst werden, wenn man den Algorithmus erweitert. Die Erkenntnisse dieser Arbeit zeigen, welche Voraussetzungen hinsichtlich der Morphverfahren nötig sind, um diese in ein GIS implementieren zu können.
Die vorliegende Arbeit untersucht, inwieweit sich das Verfahren des Morphens eignet, Kartenobjekte aus verschiedenen Maßstäben fließend ineinander zu überführen. In Geographischen Informationssystemen (GIS) werden graphische Daten verschiedener Auflösung gespeichert. Kann man die Daten aus mehreren Maßstabsebenen miteinander verknüpfen, ist es möglich, beim Zoomen Daten aus verschiedenen Ebenen zu verwenden. Beim Wechseln der Maßstabsebenen kann sich die Form eines Objektes, bedingt durch die Generalisierung, beträchtlich ändern. Das irritiert den Benutzer und lenkt ihn von seiner Arbeit ab. Morphen von Objekten löst dieses Problem, indem ein Algorithmus aus zwei Ausgangsformen die Zwischenformen interpoliert. Darin unterscheidet sich das Verfahren vom kartographischen Generalisieren, wo ein Objekt nur in einem Ausgangsmaßstab vorliegt. Es gibt verschiedene Morphverfahren; das Shape Blending, das den Umriß eines Objektes überführt, eignet sich für diesen Zweck besonders. Vorgehensweise dieser Untersuchung ist, einzelne Kartenobjekte in Gruppen einzuteilen und Elemente jeder Gruppe exemplarisch zu überführen. Hauptergebnisse der Arbeit sind eine Definition für gültige Zwischenformen sowie eine Einteilung in überführbare, eingeschränkt-überführbare und nicht- überführbare Kartenobjekte. Die meisten Einschränkungen entstehen, wenn der Algorithmus die ursprüngliche Form eines Objektes nicht verarbeiten kann. Diese Probleme können gelöst werden, wenn man den Algorithmus erweitert. Die Erkenntnisse dieser Arbeit zeigen, welche Voraussetzungen hinsichtlich der Morphverfahren nötig sind, um diese in ein GIS implementieren zu können.
Anwendungen der digitalen Höhenmodelltechnologie in der Praxis
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuer: Dr. L. Molnar.
Kurzfassung/Abstract
Digitale Geländemodelle (DGM) gewinnen immer mehr an Bedeutung - sei es in der Photogrammetrie bei der Erstellung digitaler Orthophotos, wie auch zunehmend als Grundlage für verschiedene Planungsaufgaben. SCOP ist ein plattformunabhängiges Programmsystem zur Erstellung, Wartung und Anwendung digitaler Geländemodelle. Ziel dieser Arbeit war es, durch praktische Beispiele verschiedene Einsatzmöglichkeiten von SCOP aufzuzeigen.
Zu Beginn der Arbeit wurde die Erstellung und Plausibilitätskontrolle der digitalen Geländemodelle des Bundesamtes für Eich- und Vermessungswesen (BEV) erläutert.
Am Beispiel des Schmiedingergletschers wurde mit dem Geländemodell des Bundesamtes und den Gletscherdickenmessungen der Tauernkraftwerke das vom Neigungsmodell abgeleitete Eisdickenmodell und in der Folge das Felsuntergrundmodell berechnet. Visualisiert wurden die Ergebnisse in Form von lsolinienplänen und Perspektivansichten.
Bei der Berechnung einer Erosionsgefährdungskarte stand die mathematische Verknüpfung verschiedener digitaler Modelle mit dem SCOP-Modul INTERSECT im Vordergrund.
Für das Institut der Ur- und Frühgeschichte wurde im Gebiet von Hanfthal, NÖ, ein digitales Orthophoto aus Schrägaufnahmen erzeugt. Die Aufnahme der Bilder erfolgte mit einer kalibrierten Mittelformatkamera aus einem Flugzeug. Der gesamte Ablauf dieser digitalen Orthophotoerstellung wie DGM-Erzeugung, scannen der Aufnahmen, Berechnung der Orthophotos und Mosaikbildung wurde dokumentiert.
Die Möglichkeit der Glättung des Geländemodells - im Vergleich zur Glättung abgeleiteter Produkte - sowie die Berücksichtigung der Strukturlinieninformation erhöht ganz entscheidend die Qualität des Gländemodells von SCOP.
Digitale Geländemodelle (DGM) gewinnen immer mehr an Bedeutung - sei es in der Photogrammetrie bei der Erstellung digitaler Orthophotos, wie auch zunehmend als Grundlage für verschiedene Planungsaufgaben. SCOP ist ein plattformunabhängiges Programmsystem zur Erstellung, Wartung und Anwendung digitaler Geländemodelle. Ziel dieser Arbeit war es, durch praktische Beispiele verschiedene Einsatzmöglichkeiten von SCOP aufzuzeigen.
Zu Beginn der Arbeit wurde die Erstellung und Plausibilitätskontrolle der digitalen Geländemodelle des Bundesamtes für Eich- und Vermessungswesen (BEV) erläutert.
Am Beispiel des Schmiedingergletschers wurde mit dem Geländemodell des Bundesamtes und den Gletscherdickenmessungen der Tauernkraftwerke das vom Neigungsmodell abgeleitete Eisdickenmodell und in der Folge das Felsuntergrundmodell berechnet. Visualisiert wurden die Ergebnisse in Form von lsolinienplänen und Perspektivansichten.
Bei der Berechnung einer Erosionsgefährdungskarte stand die mathematische Verknüpfung verschiedener digitaler Modelle mit dem SCOP-Modul INTERSECT im Vordergrund.
Für das Institut der Ur- und Frühgeschichte wurde im Gebiet von Hanfthal, NÖ, ein digitales Orthophoto aus Schrägaufnahmen erzeugt. Die Aufnahme der Bilder erfolgte mit einer kalibrierten Mittelformatkamera aus einem Flugzeug. Der gesamte Ablauf dieser digitalen Orthophotoerstellung wie DGM-Erzeugung, scannen der Aufnahmen, Berechnung der Orthophotos und Mosaikbildung wurde dokumentiert.
Die Möglichkeit der Glättung des Geländemodells - im Vergleich zur Glättung abgeleiteter Produkte - sowie die Berücksichtigung der Strukturlinieninformation erhöht ganz entscheidend die Qualität des Gländemodells von SCOP.
Bildorientierung und Objektrekonstruktion mit Hilfe von Punkten auf Umrißlinien
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuer: Dr. H. Kager.
Kurzfassung/Abstract
Die Hauptaufgabe der Photogrammetrie ist es, aus analogen oder digitalen Bildern dreidimensionale Objekte - Größe, Form, Lage oder geometrische Abstände - zu rekonstruieren. Dazu werden zunächst aus Photos mit Hilfe von bekannten "Gebilden" die Aufnahmeorte und die Orientierungsparameter bestimmt. In erster Linie wird die Bildorientierung und Objektrekonstruktion mittels Paßpunkten - oder auch über kurvenförmige Paßelemente - gelöst.
In dieser Arbeit hingegen wird die Bildorientierung und Objektrekonstruktion über Umrißlinien diskutiert. Die Einbeziehung von Umrißpunkten bei der Bildorientierung ist dann von Bedeutung, wenn am Objekt nur wenige Paßpunkte gemessen werden können, und das Einmessen eines jeden weiteren Paßpunktes mit erheblichem Mehraufwand verbunden wäre. Für die Objektkonstruktion bietet sich die digitale Photogrammetrie an, bei der Linien - auch die Umrißlinien - automatisch detektiert werden können. Diese Umrißlinien müssen aber identifiziert und der zu rekonstruierenden Fläche zugeordnet werden. Umrißpunkte vsind für die Objektrekonstruktion sehr wertvoll, denn sie liefern die Flächennormalen in diesen Punkten.
Im ersten Teil der Arbeit wird das mathematische und photogrammetrische Gebäude, das für die Lösung dieser Aufgabe nötig ist, entwickelt; der zweite Teil beschäftigt sich mit der Implementierung in das Programmpaket ORIENT.
Die Hauptaufgabe der Photogrammetrie ist es, aus analogen oder digitalen Bildern dreidimensionale Objekte - Größe, Form, Lage oder geometrische Abstände - zu rekonstruieren. Dazu werden zunächst aus Photos mit Hilfe von bekannten "Gebilden" die Aufnahmeorte und die Orientierungsparameter bestimmt. In erster Linie wird die Bildorientierung und Objektrekonstruktion mittels Paßpunkten - oder auch über kurvenförmige Paßelemente - gelöst.
In dieser Arbeit hingegen wird die Bildorientierung und Objektrekonstruktion über Umrißlinien diskutiert. Die Einbeziehung von Umrißpunkten bei der Bildorientierung ist dann von Bedeutung, wenn am Objekt nur wenige Paßpunkte gemessen werden können, und das Einmessen eines jeden weiteren Paßpunktes mit erheblichem Mehraufwand verbunden wäre. Für die Objektkonstruktion bietet sich die digitale Photogrammetrie an, bei der Linien - auch die Umrißlinien - automatisch detektiert werden können. Diese Umrißlinien müssen aber identifiziert und der zu rekonstruierenden Fläche zugeordnet werden. Umrißpunkte vsind für die Objektrekonstruktion sehr wertvoll, denn sie liefern die Flächennormalen in diesen Punkten.
Im ersten Teil der Arbeit wird das mathematische und photogrammetrische Gebäude, das für die Lösung dieser Aufgabe nötig ist, entwickelt; der zweite Teil beschäftigt sich mit der Implementierung in das Programmpaket ORIENT.
Einfluß und Modellierung der Troposphäre in regionalen und lokalen GPS-Netzen
Institut für Theoretische Geodäsie und Geophysik, Abteilung Theoretische Geodäsie, TU Wien, 1997. Begutachter und Betreuer: Univ.-Prof. Dr. K. Bretterbauer.
Kurzfassung/Abstract
Die troposphärischen und ionosphärischen Refraktionseinflüsse sind die wesentlichen verbleibenden genauigkeitsmindernden Faktoren für GPS-Messungen, sofern präzise Bahndaten zur Verfügung stehen. Da die Ausbreitungsgeschwindigkeit von Mikrowellen in der Troposphäre frequenzunabhängig ist, läßt sich deren Effekt nicht durch Linearkombination der beiden Trägerwellen eliminieren. Die Modellierung der Signalverzögerung erfolgt gewöhnlich durch die Weglängenkorrektur in Zenitrichtung und eine Mapping Funktion. Dabei wird die zenitale Weglängenkorrektur aus Standardmodellen oder durch zusätzlich gemessene meteorologische Stationsdaten bestimmt. Weiters können Troposphärenparameter als Verbesserung der a priori Standardmodelle aus den GPS-Daten geschätzt werden. Erfolgt die Modellierung lediglich mit einem Standardmodell (Saastamoinen, Hopfield), ist mit einem Maßstabsfehler in der Länge der Basislinien zu rechnen. Für die Bestimmung von Höhenunterschieden kann trotz gelöster Phasenmehrdeutigkeiten der Fehler ebenfalls maßstäblich sein und bei der Verwendung von Standardmodellen bis zu 100ppm betragen.
In der Auswertung wurden obengenannte Strategien für Basislinien von 200km bis 400km Länge und für kurze Basislinien im Bereich von 10km mit Höhenunterschieden bis zu 2000m untersucht. Es wird gezeigt, daß Genauigkeiten im Bereich von (1cm auch in der Höhenkomponente erreicht werden können, wenn die Abweichungen der modellierten troposphärischen Weglängenkorrektur von der tatsächlichen Signalverzögerung durch Schätzen von Troposphärenparametern erfaßt werden.
Die troposphärischen und ionosphärischen Refraktionseinflüsse sind die wesentlichen verbleibenden genauigkeitsmindernden Faktoren für GPS-Messungen, sofern präzise Bahndaten zur Verfügung stehen. Da die Ausbreitungsgeschwindigkeit von Mikrowellen in der Troposphäre frequenzunabhängig ist, läßt sich deren Effekt nicht durch Linearkombination der beiden Trägerwellen eliminieren. Die Modellierung der Signalverzögerung erfolgt gewöhnlich durch die Weglängenkorrektur in Zenitrichtung und eine Mapping Funktion. Dabei wird die zenitale Weglängenkorrektur aus Standardmodellen oder durch zusätzlich gemessene meteorologische Stationsdaten bestimmt. Weiters können Troposphärenparameter als Verbesserung der a priori Standardmodelle aus den GPS-Daten geschätzt werden. Erfolgt die Modellierung lediglich mit einem Standardmodell (Saastamoinen, Hopfield), ist mit einem Maßstabsfehler in der Länge der Basislinien zu rechnen. Für die Bestimmung von Höhenunterschieden kann trotz gelöster Phasenmehrdeutigkeiten der Fehler ebenfalls maßstäblich sein und bei der Verwendung von Standardmodellen bis zu 100ppm betragen.
In der Auswertung wurden obengenannte Strategien für Basislinien von 200km bis 400km Länge und für kurze Basislinien im Bereich von 10km mit Höhenunterschieden bis zu 2000m untersucht. Es wird gezeigt, daß Genauigkeiten im Bereich von (1cm auch in der Höhenkomponente erreicht werden können, wenn die Abweichungen der modellierten troposphärischen Weglängenkorrektur von der tatsächlichen Signalverzögerung durch Schätzen von Troposphärenparametern erfaßt werden.
Genauigkeit der Verschneidung geometrischer Geodaten
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuer: Dr. H. Kager.
Kurzfassung/Abstract
Diese Arbeit untersucht die Genauigkeiten eines Netzwerkes von Flächen im zweidimensionalen Raum und die Genauigkeit der Ergebnisse von Verschneidungen solcher Flächennetze. Es werden drei Berechnungsmethoden sowohl in Theorie als auch anhand von Beispielen untersucht und miteinander verglichen. Das dabei verwendete EDV-Programm wurde im Rahmen der Diplomarbeit entwickelt.
Bei der ersten Methode handelt es sich um eine koordinatenfreie Schätzung. Dieser Ansatz berücksichtigt keinerlei Korrelationen, weshalb sie für Verschneidungen nicht in Frage kommt. Schnittpunkte sind nämlich immer mit ihren Ausgangspunkten korreliert. Weiters wird bei diesem Ansatz für alle Punkte ein gleicher Punktlagefehler angenommen, sodaß unter anderem keine unterschiedlichen Genauigkeiten in den x- und y-Koordinaten berücksichtigt werden können.
Die zweite Methode bedient sich des einfachen Fehlerfortplanzungsgesetzes. Zwar sind hier unterschiedliche Genauigkeiten in beiden Koordinatenrichtungen möglich, doch werden auch hier alle Korrelationen ignoriert.
Beide Methoden reagieren auf das Einrechnen zusätzlicher Stützpunkte mit einer Verbesserung der Flächengenauigkeit, obwohl sich dadurch die Fläche und ihre Genauigkeit nicht ändern dürfen.
Bei der dritten Methode kommt das allgemeine Fehlerfortpflanzungsgesetz zum Einsatz. Die Korrelationen der Schnittpunkte fließen quasi automatisch in die Berechnung ein. Korrelationen der Ausgangspunkte können in die entsprechende Varianz-Kovarianz-Matrix eingebracht werden. Weiters fallen die Korrelationen der durch Verschneidung entstandenen Flächen an. Falls diese Korrelationen bei späteren Flächenvereinigungen nicht berücksichtigt werden, was beim einfachen Fehlerfortpflanzungsgesetz der Fall ist, erhält man stark verfälschte Genauigkeitsangaben.
Dies alles führt zur Erkenntnis, daß nur die konsequente Anwendung des allgemeinen Fehlerfortpflanzungsgesetzes verläßlich und theoretisch einwandfreie Genauigkeitsangaben für Flächen und Verschneidungen von Flächennetzen liefert.
Diese Arbeit untersucht die Genauigkeiten eines Netzwerkes von Flächen im zweidimensionalen Raum und die Genauigkeit der Ergebnisse von Verschneidungen solcher Flächennetze. Es werden drei Berechnungsmethoden sowohl in Theorie als auch anhand von Beispielen untersucht und miteinander verglichen. Das dabei verwendete EDV-Programm wurde im Rahmen der Diplomarbeit entwickelt.
Bei der ersten Methode handelt es sich um eine koordinatenfreie Schätzung. Dieser Ansatz berücksichtigt keinerlei Korrelationen, weshalb sie für Verschneidungen nicht in Frage kommt. Schnittpunkte sind nämlich immer mit ihren Ausgangspunkten korreliert. Weiters wird bei diesem Ansatz für alle Punkte ein gleicher Punktlagefehler angenommen, sodaß unter anderem keine unterschiedlichen Genauigkeiten in den x- und y-Koordinaten berücksichtigt werden können.
Die zweite Methode bedient sich des einfachen Fehlerfortplanzungsgesetzes. Zwar sind hier unterschiedliche Genauigkeiten in beiden Koordinatenrichtungen möglich, doch werden auch hier alle Korrelationen ignoriert.
Beide Methoden reagieren auf das Einrechnen zusätzlicher Stützpunkte mit einer Verbesserung der Flächengenauigkeit, obwohl sich dadurch die Fläche und ihre Genauigkeit nicht ändern dürfen.
Bei der dritten Methode kommt das allgemeine Fehlerfortpflanzungsgesetz zum Einsatz. Die Korrelationen der Schnittpunkte fließen quasi automatisch in die Berechnung ein. Korrelationen der Ausgangspunkte können in die entsprechende Varianz-Kovarianz-Matrix eingebracht werden. Weiters fallen die Korrelationen der durch Verschneidung entstandenen Flächen an. Falls diese Korrelationen bei späteren Flächenvereinigungen nicht berücksichtigt werden, was beim einfachen Fehlerfortpflanzungsgesetz der Fall ist, erhält man stark verfälschte Genauigkeitsangaben.
Dies alles führt zur Erkenntnis, daß nur die konsequente Anwendung des allgemeinen Fehlerfortpflanzungsgesetzes verläßlich und theoretisch einwandfreie Genauigkeitsangaben für Flächen und Verschneidungen von Flächennetzen liefert.
Geodatenforum im Internet - Konzept für einen Geodatenserver
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU Graz, 1997. Begutachter und Betreuer: Univ.-Doz. Dr. N. Bartelme.
Kurzfassung/Abstract
Die globale Vernetzung bringt große Vorteile für den Geo-Datenaustausch. Schnell und komfortabel kann man Datensätze übers Netz verschicken. Das Problem liegt darin, zu wissen, wer die gewünschten Daten in geeigneter Art und Weise liefern kann.
Es wurde ein Konzept erstellt, wie eine zentrale Plattform für den Datenaustausch im Internet organisiert werden kann. Untersucht wurden Problematiken, die mit der Entwicklung eines Geodatenservers einhergehen. Zu diesen Problematiken (Einbringung, Präsentation, Verwaltung und Lieferung von Geodaten sowie die Navigation im Geodatenserver) wurden Lösungsvorschläge erarbeitet.
Vordergründig wurde der Datenaustausch behandelt, der eine einheitliche Beschreibung der Geodaten bedingt. Als Grundlage für eine einheitliche Beschreibung wurden nationale (ÖNORM A2260, A2261-X) bzw. europäische (prEN12656, prEN12657) Normen herangezogen.
Ein weiterer Punkt war die Erstellung geeigneter Such- und Navigationsmodelle, mit denen jeder die Möglichkeit besitzt, Geodaten zu finden. Dabei war der Raumbezug der Geodaten ein entscheidender Faktor.
Der Geodatenserver ist eine Art Schaufenster, in dem Geodaten zum Verkauf angeboten werden. Zu diesem Zweck haben wir uns auch Gedanken über die Bestellung, Verrechnungsmöglichkeiten (Ecash, Kreditkartennummer) und Marketingstrategien im Internet gemacht.
Die globale Vernetzung bringt große Vorteile für den Geo-Datenaustausch. Schnell und komfortabel kann man Datensätze übers Netz verschicken. Das Problem liegt darin, zu wissen, wer die gewünschten Daten in geeigneter Art und Weise liefern kann.
Es wurde ein Konzept erstellt, wie eine zentrale Plattform für den Datenaustausch im Internet organisiert werden kann. Untersucht wurden Problematiken, die mit der Entwicklung eines Geodatenservers einhergehen. Zu diesen Problematiken (Einbringung, Präsentation, Verwaltung und Lieferung von Geodaten sowie die Navigation im Geodatenserver) wurden Lösungsvorschläge erarbeitet.
Vordergründig wurde der Datenaustausch behandelt, der eine einheitliche Beschreibung der Geodaten bedingt. Als Grundlage für eine einheitliche Beschreibung wurden nationale (ÖNORM A2260, A2261-X) bzw. europäische (prEN12656, prEN12657) Normen herangezogen.
Ein weiterer Punkt war die Erstellung geeigneter Such- und Navigationsmodelle, mit denen jeder die Möglichkeit besitzt, Geodaten zu finden. Dabei war der Raumbezug der Geodaten ein entscheidender Faktor.
Der Geodatenserver ist eine Art Schaufenster, in dem Geodaten zum Verkauf angeboten werden. Zu diesem Zweck haben wir uns auch Gedanken über die Bestellung, Verrechnungsmöglichkeiten (Ecash, Kreditkartennummer) und Marketingstrategien im Internet gemacht.
Feldprüfverfahren für Nivelliersysteme nach DIN 18723 und IS0 12857
Abteilung für Allgemeine Geodäsie und Ingenieurgeodäsie, TU Graz, 1997. Begutachter: Univ.-Prof. Dr. FK. Brunner, Betreuer: Dr. A. Reithofer.
Kurzfassung/Abstract
In dieser Diplomarbeit werden die Genauigkeitsuntersuchungen beschrieben, welche mit zwei verschiedenen Feldverfahren, basierend auf den Normen DIN 18723 (Teil 1) und ISO 12857, für drei Nivelliersysteme durchgeführt wurden. Es wurden für alle drei Nivelliersysteme die Werte der empirischen Standardabweichung für 1km Doppelnivellement ermittelt. Abschließend werden die beiden Verfahren anhand der erhaltenen Genauigkeiten analysiert.
Die Genauigkeitsuntersuchungen der Nivelliersysteme NA2 und NA3000 der Firma LEICA sowie des DiNi10 der Firma Zeiss bestätigten nach DIN mit s = + 0,35 mm, ±0,37 mm bzw. ±0,38 mm die Firmenangaben. Nach ISO wurden beim NA3000 für s = ±0,26 mm, beim NA2 ±0,12 mm erhalten.
Der große Unterschied erklärt sich dadurch, daß die ISO- Messungen einer Momentaufnahme gleichkommen.
Die aus dem Feldverfahren nach ISO ermittelte Standardabweichung sollte nicht, wie bei der DIN-Norm mit dem mittleren Kilometerfehler gleichgesetzt, sondern als eine eigene Fehlergröße nach ISO 12857 ausgewiesen werden, da diese viel mehr als Maß für die innere Genauigkeit zu sehen ist.
In dieser Diplomarbeit werden die Genauigkeitsuntersuchungen beschrieben, welche mit zwei verschiedenen Feldverfahren, basierend auf den Normen DIN 18723 (Teil 1) und ISO 12857, für drei Nivelliersysteme durchgeführt wurden. Es wurden für alle drei Nivelliersysteme die Werte der empirischen Standardabweichung für 1km Doppelnivellement ermittelt. Abschließend werden die beiden Verfahren anhand der erhaltenen Genauigkeiten analysiert.
Die Genauigkeitsuntersuchungen der Nivelliersysteme NA2 und NA3000 der Firma LEICA sowie des DiNi10 der Firma Zeiss bestätigten nach DIN mit s = + 0,35 mm, ±0,37 mm bzw. ±0,38 mm die Firmenangaben. Nach ISO wurden beim NA3000 für s = ±0,26 mm, beim NA2 ±0,12 mm erhalten.
Der große Unterschied erklärt sich dadurch, daß die ISO- Messungen einer Momentaufnahme gleichkommen.
Die aus dem Feldverfahren nach ISO ermittelte Standardabweichung sollte nicht, wie bei der DIN-Norm mit dem mittleren Kilometerfehler gleichgesetzt, sondern als eine eigene Fehlergröße nach ISO 12857 ausgewiesen werden, da diese viel mehr als Maß für die innere Genauigkeit zu sehen ist.
Modulare Beschreibung von Robotern für eine Kalibrierung und Genauigkeitsuntersuchung
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung lngenieurgeodäsie, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. H. Kahmen.
Kurzfassung/Abstract
Im Rahmen dieser Arbeit ist ein Algorithmus für die Kalibrierung von Robotern entwickelt und programmiert worden. Das Programm, SYNEI genannt, ermöglicht die automatische Erstellung eines nicht redundanten Modells für die Kinematik von Robotern mit verschiedenem Aufbau, solange sie aus maximal drei Schubgelenken und zwei Drehgelenken bestehen, die normal oder parallel zueinander ausgerichtet sind. Mit Hilfe dieses Programms können auch statistische Berechnungen durchgeführt werden, die eine Genauigkeitsaussage über den Roboter sowohl vor als auch nach der Kalibrierung ermöglichen.
SYNE_1 ist für die Kalibrierung von zwei Robotersystemen, dem viergelenkigen MICOS und dem zweigelenkigen DSE, im Forschungszentrum von Daimler-Benz in Ulm erfolgreich eingesetzt worden. Nach der Kalibrierung der beiden Robotersysteme mit SYNE_1 konnte ihre Positioniergenauigkeit, die vor der Kalibrierung im Millimeterbereich lag, auf 0.1 bzw. 0.01 mm verbessert werden.
Im Rahmen dieser Arbeit ist ein Algorithmus für die Kalibrierung von Robotern entwickelt und programmiert worden. Das Programm, SYNEI genannt, ermöglicht die automatische Erstellung eines nicht redundanten Modells für die Kinematik von Robotern mit verschiedenem Aufbau, solange sie aus maximal drei Schubgelenken und zwei Drehgelenken bestehen, die normal oder parallel zueinander ausgerichtet sind. Mit Hilfe dieses Programms können auch statistische Berechnungen durchgeführt werden, die eine Genauigkeitsaussage über den Roboter sowohl vor als auch nach der Kalibrierung ermöglichen.
SYNE_1 ist für die Kalibrierung von zwei Robotersystemen, dem viergelenkigen MICOS und dem zweigelenkigen DSE, im Forschungszentrum von Daimler-Benz in Ulm erfolgreich eingesetzt worden. Nach der Kalibrierung der beiden Robotersysteme mit SYNE_1 konnte ihre Positioniergenauigkeit, die vor der Kalibrierung im Millimeterbereich lag, auf 0.1 bzw. 0.01 mm verbessert werden.
Einfluß von Störquellen auf Meßergebnisse von GPS-Echtzeitsystemen
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Ingenieurgeodäsie, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. H. Kahmen, Betreuer: Dr. G. Retscher.
Kurzfassung/Abstract
Die Vermessungsabteilung der Firma WIENSTROM / WIENER STADTWERKE zeigte im Sommer 1996 reges Interesse am Erwerb eines RTK- Echtzeitvermessungssystems zum Einmessen der Masten von Hochspannungsleitungen. Dies erfolgte bisher terrestrisch mittels Tachymetrie oder 3D-Vorwärtsschnitt. Es war allerdings aus der Vergangenheit bekannt, daß GPS-Messungen in der Nähe von Hochspannungsleitungen und Sendeanlagen Probleme bereiten können. Daher wurden von WIENSTROM Untersuchungen über das Verhalten von RTK- Systemen in elektromagnetisch sensiblen Bereichen angeregt, was den Inhalt dieser Arbeit darstellen soll.
Die Problemstellung führte auf das äußerst komplexe Gebiet der Elektromagnetischen Verträglichkeit (EMV), wo Einflüsse von elektromagnetischen Störquellen auf verschiedenste Systeme und Organismen untersucht werden. Störquellen sind z.B. Fernseh-, Rundfunk- und Kommunikationssender, Hochspannungsleitungen, elektrische Schaltvorgänge etc. Ihre Beeinflussungen sind teilweise unbeabsichtigt und nicht sofort ersichtlich, worin auch die Schwierigkeit ihrer Behandlung liegt. Oft kann erst durch hervorgerufene Effekte auf eine Störung geschlossen werden.
Durch die Auswahl zweier geeigneter Meßgebiete (Umspannwerk mit Leitungstrasse und Richtfunksender, GSM-Sendeanlage) wurde ein großer Teil der elektromagnetischen Störungen abgedeckt, die im freien Feld auftreten können. Mit der Anlage von statischen GPS- Netzen in diesen Gebieten wurden die Grundlagen für die RTK- Messungen gelegt. Mit RTK-GPS wurden Detail- und Profilpunkte aufgenommen, die Ergebnisse analysiert und mit Daten konventioneller Messungen verglichen. Zusätzlich fanden in der Nähe von Störern 0kontinuierliche RTK-Messungen statt, um zeitliche Korrelationen zwischen Störungen und Meßergebnissen erkennen zu können. Es war festzustellen, daß elektromagnetische Störquellen GPS- und RTK-Messungen nicht oder nur gering beeinflussen. Die in Zusammenhang mit den Störquellen auftretenden Effekte in der Nähe von Gittermasten und solche neben stark befahrenen Verkehrswegen (Abschattungen, Mehrwegausbreitungen, Cycle Slips) machten jedoch die Ergebnisse der RTK-Messungen teilweise unbrauchbar (Initialisierungsfehler). Vor allem beim Einsatz der On-the- Fly-lnitialisierung können größere Fehler auftreten.
Die Vermessungsabteilung der Firma WIENSTROM / WIENER STADTWERKE zeigte im Sommer 1996 reges Interesse am Erwerb eines RTK- Echtzeitvermessungssystems zum Einmessen der Masten von Hochspannungsleitungen. Dies erfolgte bisher terrestrisch mittels Tachymetrie oder 3D-Vorwärtsschnitt. Es war allerdings aus der Vergangenheit bekannt, daß GPS-Messungen in der Nähe von Hochspannungsleitungen und Sendeanlagen Probleme bereiten können. Daher wurden von WIENSTROM Untersuchungen über das Verhalten von RTK- Systemen in elektromagnetisch sensiblen Bereichen angeregt, was den Inhalt dieser Arbeit darstellen soll.
Die Problemstellung führte auf das äußerst komplexe Gebiet der Elektromagnetischen Verträglichkeit (EMV), wo Einflüsse von elektromagnetischen Störquellen auf verschiedenste Systeme und Organismen untersucht werden. Störquellen sind z.B. Fernseh-, Rundfunk- und Kommunikationssender, Hochspannungsleitungen, elektrische Schaltvorgänge etc. Ihre Beeinflussungen sind teilweise unbeabsichtigt und nicht sofort ersichtlich, worin auch die Schwierigkeit ihrer Behandlung liegt. Oft kann erst durch hervorgerufene Effekte auf eine Störung geschlossen werden.
Durch die Auswahl zweier geeigneter Meßgebiete (Umspannwerk mit Leitungstrasse und Richtfunksender, GSM-Sendeanlage) wurde ein großer Teil der elektromagnetischen Störungen abgedeckt, die im freien Feld auftreten können. Mit der Anlage von statischen GPS- Netzen in diesen Gebieten wurden die Grundlagen für die RTK- Messungen gelegt. Mit RTK-GPS wurden Detail- und Profilpunkte aufgenommen, die Ergebnisse analysiert und mit Daten konventioneller Messungen verglichen. Zusätzlich fanden in der Nähe von Störern 0kontinuierliche RTK-Messungen statt, um zeitliche Korrelationen zwischen Störungen und Meßergebnissen erkennen zu können. Es war festzustellen, daß elektromagnetische Störquellen GPS- und RTK-Messungen nicht oder nur gering beeinflussen. Die in Zusammenhang mit den Störquellen auftretenden Effekte in der Nähe von Gittermasten und solche neben stark befahrenen Verkehrswegen (Abschattungen, Mehrwegausbreitungen, Cycle Slips) machten jedoch die Ergebnisse der RTK-Messungen teilweise unbrauchbar (Initialisierungsfehler). Vor allem beim Einsatz der On-the- Fly-lnitialisierung können größere Fehler auftreten.
Relative Orientierung dreier Bilder mit Hilfe des trilinearen Tensors
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuer: Dr. H. Kager.
Kurzfassung/Abstract
Die Photogrammetrie arbeitet mit zentralperspektiven Aufnahmen räumlicher Objekte. Die Darstellung der Zentralprojektion in den konventionellen Elementen der inneren und äußeren Orientierung ist nicht linear. Für manche Aufgaben ist der Bezug zu einem übergeordneten Koordinatensystem nicht notwendig. In solchen Fällen arbeitet man mit der sogenannten relativen Orientierung. Darunter versteht man die Ausrichtung von mindestens zwei Bildern derart, daß homologe Projektionsstrahlen einander in einem Punkt des Raums schneiden. Die konventionelle relative Orientierung ist ebenfalls nicht linear.
Verschiedene Aufgaben (z. B. Ausgleichung) benötigen aber lineare Gleichungen. Zu diesem Zweck müssen die Gleichungen der Zentralprojektion linearisiert werden, wofür wiederum Näherungswerte der genannten Elemente notwendig sind. Die Bestimmung von Näherungswerten ist aber in vielen Fällen recht mühsam.
In der relativ jungen Disziplin der Computervision, die ebenfalls mit zentralperspektiven Bildern arbeitet, wird aus diesem Grund eine lineare Darstellung der Zentralprojektion angestrebt, welche mittels projektiver Geometrie in Form der sogenannten Direkten Linearen Transformation erreicht wird. Weiters kennt man in der Computervision eine Möglichkeit, die relative Orientierung zweier Bilder mit Hilfe der sog. Fundamentalmatrix auf lineare Weise darzustellen. Diese Matrix ist unter dem Namen Korrelations-Matrix auch in der Photogrammetrie schon seit sehr langer Zeit bekannt. Nun kennt man aber in der Computervision auch ein indiziertes Zahlenschema - den trilinearen Tensor -, mit Hilfe dessen sich die relative Orientierung dreier Bilder auf lineare Weise darstellen läßt. Um den Tensor auch in der Photogrammetrie nutzen zu können, ist es vor allem notwendig, die Beziehung zwischen den Tensorelementen und den Elementen der inneren und äußeren Orientierung zu kennen, was in dieser Arbeit ausführlich dargestellt wird.
Zusammenfassend ist zum trilinearen Tensor folgendes zu sagen: Der trilineare Tensor wird durch 3 Indizes, welche alle von 1 bis 3 laufen, indiziert. Somit besteht der Tensor aus 33 = 27 Elementen. Die relative Orientierung der drei Bilder (d. h. die Schnittbedingung von drei homologen Projektionsstrahlen) wird über 4 sogenannte trilineare Gleichungen, welche homogen und linear in den Tensorelementen sind, beschrieben. Diese 4 in den Bildkoordinaten trilinearen Gleichungen sind untereinander linear unabhängig. Da ein homologes Punkttripel 4 solche trilinearen Gleichungen liefert und der Tensor 27 Elemente besitzt, sind mindestens 7 homologe Punkttripel in drei Bildern notwendig, um den Tensor für diese drei Bilder bestimmen zu können. Der Maßstab des Tensors ist allerdings wegen der Homogenität der trilinearen Gleichungen nicht bestimmbar. Nicht jeder beliebige Satz von mindestens 7 homologen Punkten wird eine Lösung für den Tensor erlauben. Dieser Umstand hängt mit den sogenannten gefährlichen Flächen zusammen, welche allerdings für die relative Orientierung dreier Bilder noch nicht bekannt sind. Weiter ist zu sagen, daß unter den 27 Tensorelementen Bedingungsgleichungen bestehen. Die Gestalt all dieser Bedingungsgleichungen ist aber ebenfalls noch nicht bekannt. Bestimmte Anordnungen von Tensorelementen ergeben sogenannte Homographie-Matrizen. Diese Matrizen besitzen sehr viele Eigenschaften, welche in dieser Arbeit dargestellt werden. Unter anderem erlauben diese Homographien die Berechnung der Fundamental-Matrizen. Den Abschluß der Arbeit bildet ein erläuterndes Zahlenbeispiel.
Die Photogrammetrie arbeitet mit zentralperspektiven Aufnahmen räumlicher Objekte. Die Darstellung der Zentralprojektion in den konventionellen Elementen der inneren und äußeren Orientierung ist nicht linear. Für manche Aufgaben ist der Bezug zu einem übergeordneten Koordinatensystem nicht notwendig. In solchen Fällen arbeitet man mit der sogenannten relativen Orientierung. Darunter versteht man die Ausrichtung von mindestens zwei Bildern derart, daß homologe Projektionsstrahlen einander in einem Punkt des Raums schneiden. Die konventionelle relative Orientierung ist ebenfalls nicht linear.
Verschiedene Aufgaben (z. B. Ausgleichung) benötigen aber lineare Gleichungen. Zu diesem Zweck müssen die Gleichungen der Zentralprojektion linearisiert werden, wofür wiederum Näherungswerte der genannten Elemente notwendig sind. Die Bestimmung von Näherungswerten ist aber in vielen Fällen recht mühsam.
In der relativ jungen Disziplin der Computervision, die ebenfalls mit zentralperspektiven Bildern arbeitet, wird aus diesem Grund eine lineare Darstellung der Zentralprojektion angestrebt, welche mittels projektiver Geometrie in Form der sogenannten Direkten Linearen Transformation erreicht wird. Weiters kennt man in der Computervision eine Möglichkeit, die relative Orientierung zweier Bilder mit Hilfe der sog. Fundamentalmatrix auf lineare Weise darzustellen. Diese Matrix ist unter dem Namen Korrelations-Matrix auch in der Photogrammetrie schon seit sehr langer Zeit bekannt. Nun kennt man aber in der Computervision auch ein indiziertes Zahlenschema - den trilinearen Tensor -, mit Hilfe dessen sich die relative Orientierung dreier Bilder auf lineare Weise darstellen läßt. Um den Tensor auch in der Photogrammetrie nutzen zu können, ist es vor allem notwendig, die Beziehung zwischen den Tensorelementen und den Elementen der inneren und äußeren Orientierung zu kennen, was in dieser Arbeit ausführlich dargestellt wird.
Zusammenfassend ist zum trilinearen Tensor folgendes zu sagen: Der trilineare Tensor wird durch 3 Indizes, welche alle von 1 bis 3 laufen, indiziert. Somit besteht der Tensor aus 33 = 27 Elementen. Die relative Orientierung der drei Bilder (d. h. die Schnittbedingung von drei homologen Projektionsstrahlen) wird über 4 sogenannte trilineare Gleichungen, welche homogen und linear in den Tensorelementen sind, beschrieben. Diese 4 in den Bildkoordinaten trilinearen Gleichungen sind untereinander linear unabhängig. Da ein homologes Punkttripel 4 solche trilinearen Gleichungen liefert und der Tensor 27 Elemente besitzt, sind mindestens 7 homologe Punkttripel in drei Bildern notwendig, um den Tensor für diese drei Bilder bestimmen zu können. Der Maßstab des Tensors ist allerdings wegen der Homogenität der trilinearen Gleichungen nicht bestimmbar. Nicht jeder beliebige Satz von mindestens 7 homologen Punkten wird eine Lösung für den Tensor erlauben. Dieser Umstand hängt mit den sogenannten gefährlichen Flächen zusammen, welche allerdings für die relative Orientierung dreier Bilder noch nicht bekannt sind. Weiter ist zu sagen, daß unter den 27 Tensorelementen Bedingungsgleichungen bestehen. Die Gestalt all dieser Bedingungsgleichungen ist aber ebenfalls noch nicht bekannt. Bestimmte Anordnungen von Tensorelementen ergeben sogenannte Homographie-Matrizen. Diese Matrizen besitzen sehr viele Eigenschaften, welche in dieser Arbeit dargestellt werden. Unter anderem erlauben diese Homographien die Berechnung der Fundamental-Matrizen. Den Abschluß der Arbeit bildet ein erläuterndes Zahlenbeispiel.
Die Rektifizierung von Flugzeugscanneraufnahmen durch Modellierung der Flugbahn und des Rotationsverhaltens mit Kurven aus zusammengesetzten kubischen Polynomen
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuer: Dr. G. Forkert.
Kurzfassung/Abstract
Fernerkundungsdaten stellen eine wichtige Grundlage zur Erfassung von Umweltparametern dar, wobei satelliten- oder flugzeuggestützte Abtaster (engl. "Scanner") zunehmend an Bedeutung gewinnen. Scanner können die Spektralbereiche des sichtbaren Lichts und des nahen infrarots - und im Falle von Rotationsscannern auch Thermalstrahlung - erfassen. Typische Einsatzgebiete von Flugzeugscanneraufnahmen sind zum Beispiel die Erfassung des Vegetationszustandes oder die Erhebung von bebauten und versiegelten Flächen im Stadtgebiet. Eine Voraussetzung für die Nutzung von Scanneraufnahmen ist die geometrische Rektifizierung der Aufnahmen. Die Entzerrung von Flugzeugscanneraufnahmen konnte bisher aufgrund der unregelmäßigen Flugbahn nicht zufriedenstellend erfolgen.
In dieser Arbeit wurde im Rahmen eines Pilotprojekts die Rektifizierung der Scanneraufnahme eines Testgebietes im Süden von Wien erfolgreich durchgeführt. Dabei wurde der sogenannte parametrische Ansatz angewendet. Bei der parametrischen Rektifizierung erfolgt die Entzerrung der Bildmatrix durch Projizieren der Bildzeilen auf die Erdoberfläche, welche durch ein digitales Geländemodell repräsentiert wird. Die für die Projektion erforderlichen Orientierungsparameter (Aufnahmeort und Rotationen) ändern sich aufgrund der Flugbewegung stetig von Bildzeile zu Bildzeile und können daher mit einer sechsdimensionalen Orientierungsfunktion modelliert werden. Die Rekonstruktion der Flugbewegung erfolgte bisher mit Hilfe von einfachen Polynomen, zum Beispiel Geraden oder Parabeln, welche für die Modellierung von Satellitenbewegungen gut geeignet sind, nicht aber für die unregelmäßige Bewegung von Flugzeugen.
G. Forkert hat im Rahmen seiner Dissertation am Institut für Photogrammetrie und Fernerkundung der TU Wien über "Die Lösung photogrammetrischer Orientierungs- und Rekonstruktionsaufgaben mittels allgemeiner kurvenförmiger Elemente" die theoretischen Grundlagen und - gemeinsam mit H. Kager - die notwendigen Programmodule für das Programmpaket ORIENT geschaffen, die das flexible Modellieren der Flugbahn und des Rotationsverhaltens eines Flugzeuges mit Hilfe von kubischen Splinefunktionen ermöglichen. Diese neuen "Werkzeuge" wurden nun erstmals für die Bestimmung der Orientierungsfunktion von Scanneraufnahmen eingesetzt, wobei die Praxistauglichkeit dieser Methode an einem extrem unruhigen Flugbahnabschnitt gezeigt werden konnte. Die Parameter der Orientierungsfunktion wurden sowohl mit Paßpunkten als auch mit linienhaften Paßelementen, welche oft leichter aus der Scanneraufnahme zu extrahieren sind als Paßpunkte, bestimmt.
Fernerkundungsdaten stellen eine wichtige Grundlage zur Erfassung von Umweltparametern dar, wobei satelliten- oder flugzeuggestützte Abtaster (engl. "Scanner") zunehmend an Bedeutung gewinnen. Scanner können die Spektralbereiche des sichtbaren Lichts und des nahen infrarots - und im Falle von Rotationsscannern auch Thermalstrahlung - erfassen. Typische Einsatzgebiete von Flugzeugscanneraufnahmen sind zum Beispiel die Erfassung des Vegetationszustandes oder die Erhebung von bebauten und versiegelten Flächen im Stadtgebiet. Eine Voraussetzung für die Nutzung von Scanneraufnahmen ist die geometrische Rektifizierung der Aufnahmen. Die Entzerrung von Flugzeugscanneraufnahmen konnte bisher aufgrund der unregelmäßigen Flugbahn nicht zufriedenstellend erfolgen.
In dieser Arbeit wurde im Rahmen eines Pilotprojekts die Rektifizierung der Scanneraufnahme eines Testgebietes im Süden von Wien erfolgreich durchgeführt. Dabei wurde der sogenannte parametrische Ansatz angewendet. Bei der parametrischen Rektifizierung erfolgt die Entzerrung der Bildmatrix durch Projizieren der Bildzeilen auf die Erdoberfläche, welche durch ein digitales Geländemodell repräsentiert wird. Die für die Projektion erforderlichen Orientierungsparameter (Aufnahmeort und Rotationen) ändern sich aufgrund der Flugbewegung stetig von Bildzeile zu Bildzeile und können daher mit einer sechsdimensionalen Orientierungsfunktion modelliert werden. Die Rekonstruktion der Flugbewegung erfolgte bisher mit Hilfe von einfachen Polynomen, zum Beispiel Geraden oder Parabeln, welche für die Modellierung von Satellitenbewegungen gut geeignet sind, nicht aber für die unregelmäßige Bewegung von Flugzeugen.
G. Forkert hat im Rahmen seiner Dissertation am Institut für Photogrammetrie und Fernerkundung der TU Wien über "Die Lösung photogrammetrischer Orientierungs- und Rekonstruktionsaufgaben mittels allgemeiner kurvenförmiger Elemente" die theoretischen Grundlagen und - gemeinsam mit H. Kager - die notwendigen Programmodule für das Programmpaket ORIENT geschaffen, die das flexible Modellieren der Flugbahn und des Rotationsverhaltens eines Flugzeuges mit Hilfe von kubischen Splinefunktionen ermöglichen. Diese neuen "Werkzeuge" wurden nun erstmals für die Bestimmung der Orientierungsfunktion von Scanneraufnahmen eingesetzt, wobei die Praxistauglichkeit dieser Methode an einem extrem unruhigen Flugbahnabschnitt gezeigt werden konnte. Die Parameter der Orientierungsfunktion wurden sowohl mit Paßpunkten als auch mit linienhaften Paßelementen, welche oft leichter aus der Scanneraufnahme zu extrahieren sind als Paßpunkte, bestimmt.
Die Statistik des Erdschwerefeldes
Institut für Theoretische Geodäsie, Abteilung für Physikalische Geodäsie, TU Graz, 1997. Begutachter: Univ.- Prof. Dr. H. Moritz, Betreuer: Dr. K. Rautz.
Kurzfassung/Abstract
Die Forderung nach einer statistischen Auswertung von Schwerefelddaten führt zur prinzipiellen Frage nach den statistischen Voraussetzungen, die das Erdschwerefeld aufzuweisen hat, um nach stochastischen Methoden verfahren zu können. Die Behandlung des Gravitationsfeldes als stationären stochastischen Prozeß liefert die Rechtfertigung für diese Anwendung. Seit der Entwicklung der Methode der Kollokation, dem mathematischen Modell zur Bestimmung von Schwerefeldgrößen, ist umstritten, ob das Schwerefeld tatsächlich zufälligen Gesetzen gehorcht, da die Kollokation auch als rein analytische Methode, ohne Bezug zur Statistik, betrachtet werden kann. Die benötigten theoretischen Grundlagen der Physik, der Mathematik und der Statistik werden in einzelnen Kapiteln dargestellt. Die Anwendbarkeit von stochastischen Prozessen auf der Kugel, als Modell für die Erde, ist nur unter der Bedingung der Ergodizität gegeben. Es werden Beispiele von ergodischen Prozessen angeführt, vor allem ein Modell mit Einbindung in den Raum der Rotationsgruppe. Weiters werden Möglichkeiten zur Bestimmung statistischer Verteilungen von Schwerefeldgrößen aufgezeigt. Abschließend folgt eine Diskussion zur umstrittenen Frage der Stochastizität oder Nicht-Stochastizität des Gravitationsfeldes.
Die Forderung nach einer statistischen Auswertung von Schwerefelddaten führt zur prinzipiellen Frage nach den statistischen Voraussetzungen, die das Erdschwerefeld aufzuweisen hat, um nach stochastischen Methoden verfahren zu können. Die Behandlung des Gravitationsfeldes als stationären stochastischen Prozeß liefert die Rechtfertigung für diese Anwendung. Seit der Entwicklung der Methode der Kollokation, dem mathematischen Modell zur Bestimmung von Schwerefeldgrößen, ist umstritten, ob das Schwerefeld tatsächlich zufälligen Gesetzen gehorcht, da die Kollokation auch als rein analytische Methode, ohne Bezug zur Statistik, betrachtet werden kann. Die benötigten theoretischen Grundlagen der Physik, der Mathematik und der Statistik werden in einzelnen Kapiteln dargestellt. Die Anwendbarkeit von stochastischen Prozessen auf der Kugel, als Modell für die Erde, ist nur unter der Bedingung der Ergodizität gegeben. Es werden Beispiele von ergodischen Prozessen angeführt, vor allem ein Modell mit Einbindung in den Raum der Rotationsgruppe. Weiters werden Möglichkeiten zur Bestimmung statistischer Verteilungen von Schwerefeldgrößen aufgezeigt. Abschließend folgt eine Diskussion zur umstrittenen Frage der Stochastizität oder Nicht-Stochastizität des Gravitationsfeldes.
Leistungsbilanz für den Ersatztrassenbegleitender Polygonzüge durch GPS am Beispiel des Trimble 4000 SSE
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Ingenieurgeodäsie, TU Wien 1997. Begutachter: Univ.-Prof. Dr. H. Kahmen, Betreuer: Univ.-Doz. Dr. Th. Wunderlich.
Kurzfassung/Abstract
Die Hersteller von Vermessungsgeräten bieten immer wieder Meßsysteme an, die eine wesentliche Erleichterung bei der Bewältigung des Außendienstes bringen sollen. Da der Zeitaufwand und damit die Personalkosten für den Feldeinsatz einen wesentlichen Teil in der Kalkulation darstellen, kann durch rationellere Meßverfahren in diesem Bereich ein Gewinn erwirtschaftet werden. Eine möglich Optimierung des Außendienstes verspricht der Einsatz von GPS, dessen Vorteile in der großen Reichweite und im Einmannbetrieb liegen.
Besonderes Augenmerk wurde auf das rationelle Verfahren der "Stop an Go" Kinematik gelegt. Anhand der Ergebnisse eines vorliegenden Projektes wurde analysiert, wie weit das traditionelle terrestrische Verfahren der elektronischen Tachymetrie bzw. Polarpunktmessung bei der linienhaften Aufnahme entlang von Trassen für Verkehrswege durch GPS ersetzt oder unterstützt werden kann. Das Aufnahmegebiet, das mittels GPS-Technologie erfaßt wurde, erstreckt sich über eine Länge von etwa 5 km. Etwa 70 % diese Gebietes wurden zu Kontroll- und Testzwecken mit der konventionellen Meßanordnung nachgemessen. Bei der Auswertung der GPS-Messungen wurden Überlegungen zur Einbindung der Ergebnisse in das Landessystem getätigt. Dabei zeigte sich, daß vor allem bei kleineren Aufnahmegebieten in flachen Regionen, die Transformation mit global für Österreich bestimmten Parametern erfolgen kann.
Der Vergleich der beiden Systeme wurde in drei Bereiche gegliedert. Als erster Punkt wurde die Genauigkeit von GPS in der Praxis untersucht und mit den Ergebnissen der terrestrischen Messungen verglichen. Danach wurde der benötigte Zeitaufwand gegenübergestellt. Den Abschluß bildet der Vergleich der Anschaffungskosten für beide Ausrüstungen.
Es konnte gezeigt werden, daß GPS die geforderten Genauigkeiten von 7 cm in der Lage bzw. Höhe erreichen konnte. Bei der Auswertung der Ergebnisse zeigte sich weiters, daß ein Teil der im Außendienst erwirtschafteten Vorteile des Einmann-Meßsystems durch einen Mehraufwand in der Datenübertragung und Berechnung eingebüßt wird. Die Einsparung an Personal durch das neue Verfahren betragen etwa 25%. Als Schwachstelle der "Stop and Go" - Kinematik zeigte sich die mangelnde Datensicherheit, da 0.8% der Messungen nicht ausgewertet werden konnten. Der Vergleich der Anschaffungskosten fällt jedoch zugunsten der Totalstation aus.
Das Problem der Schwächen bezüglich der Datensicherheit konnte durch eine Weiterentwicklung der "Stop and Go" - Kinematik unter Kontrolle gebracht werden. Da bei der Real-Time-Kinematik die Auswertung der Satellitendaten im Feld erfolgt, können bereits während der Messung eventuelle Probleme durch Abschattungen, ungünstige Satellitenkonstellationen oder Mehrwegausbreitungen erkannt und einer Lösung zugeführt werden. Diese besteht im schlimmsten Fall im Einsatz eines konventionellen Meßmittels. Bei RTK beschränken sich die Berechnungen im Büro auf die Übertragung der im Feld ermittelten Koordinaten und die Transformation derselben in das Landessystem. Da die Dauer der Messung eines Punktes mit RTK kürzer als bei "Stop and Go" ist, beträgt die Einsparung beim Personal etwa 50 %. durch diese Ergebnisse konnte gezeigt werden" daß mit dem Satellitenverfahren dem Vermesser ein rationelles Meßmittel zur Verfügung steht, um einen effektiveren Arbeitsfortschritt zu erzielen.
Die Hersteller von Vermessungsgeräten bieten immer wieder Meßsysteme an, die eine wesentliche Erleichterung bei der Bewältigung des Außendienstes bringen sollen. Da der Zeitaufwand und damit die Personalkosten für den Feldeinsatz einen wesentlichen Teil in der Kalkulation darstellen, kann durch rationellere Meßverfahren in diesem Bereich ein Gewinn erwirtschaftet werden. Eine möglich Optimierung des Außendienstes verspricht der Einsatz von GPS, dessen Vorteile in der großen Reichweite und im Einmannbetrieb liegen.
Besonderes Augenmerk wurde auf das rationelle Verfahren der "Stop an Go" Kinematik gelegt. Anhand der Ergebnisse eines vorliegenden Projektes wurde analysiert, wie weit das traditionelle terrestrische Verfahren der elektronischen Tachymetrie bzw. Polarpunktmessung bei der linienhaften Aufnahme entlang von Trassen für Verkehrswege durch GPS ersetzt oder unterstützt werden kann. Das Aufnahmegebiet, das mittels GPS-Technologie erfaßt wurde, erstreckt sich über eine Länge von etwa 5 km. Etwa 70 % diese Gebietes wurden zu Kontroll- und Testzwecken mit der konventionellen Meßanordnung nachgemessen. Bei der Auswertung der GPS-Messungen wurden Überlegungen zur Einbindung der Ergebnisse in das Landessystem getätigt. Dabei zeigte sich, daß vor allem bei kleineren Aufnahmegebieten in flachen Regionen, die Transformation mit global für Österreich bestimmten Parametern erfolgen kann.
Der Vergleich der beiden Systeme wurde in drei Bereiche gegliedert. Als erster Punkt wurde die Genauigkeit von GPS in der Praxis untersucht und mit den Ergebnissen der terrestrischen Messungen verglichen. Danach wurde der benötigte Zeitaufwand gegenübergestellt. Den Abschluß bildet der Vergleich der Anschaffungskosten für beide Ausrüstungen.
Es konnte gezeigt werden, daß GPS die geforderten Genauigkeiten von 7 cm in der Lage bzw. Höhe erreichen konnte. Bei der Auswertung der Ergebnisse zeigte sich weiters, daß ein Teil der im Außendienst erwirtschafteten Vorteile des Einmann-Meßsystems durch einen Mehraufwand in der Datenübertragung und Berechnung eingebüßt wird. Die Einsparung an Personal durch das neue Verfahren betragen etwa 25%. Als Schwachstelle der "Stop and Go" - Kinematik zeigte sich die mangelnde Datensicherheit, da 0.8% der Messungen nicht ausgewertet werden konnten. Der Vergleich der Anschaffungskosten fällt jedoch zugunsten der Totalstation aus.
Das Problem der Schwächen bezüglich der Datensicherheit konnte durch eine Weiterentwicklung der "Stop and Go" - Kinematik unter Kontrolle gebracht werden. Da bei der Real-Time-Kinematik die Auswertung der Satellitendaten im Feld erfolgt, können bereits während der Messung eventuelle Probleme durch Abschattungen, ungünstige Satellitenkonstellationen oder Mehrwegausbreitungen erkannt und einer Lösung zugeführt werden. Diese besteht im schlimmsten Fall im Einsatz eines konventionellen Meßmittels. Bei RTK beschränken sich die Berechnungen im Büro auf die Übertragung der im Feld ermittelten Koordinaten und die Transformation derselben in das Landessystem. Da die Dauer der Messung eines Punktes mit RTK kürzer als bei "Stop and Go" ist, beträgt die Einsparung beim Personal etwa 50 %. durch diese Ergebnisse konnte gezeigt werden" daß mit dem Satellitenverfahren dem Vermesser ein rationelles Meßmittel zur Verfügung steht, um einen effektiveren Arbeitsfortschritt zu erzielen.
Ein geophysikalisches Modell des südlichen Homer Beckens
Institut für Theoretische Geodäsie und Geophysik, Abteilung Geophysik, TU Wien, 1997. Begutachter: Univ.-Doz. Dr. K.H. Roch, Betreuer: Dr. H. Figdor.
Kurzfassung/Abstract
Die vorliegende Arbeit befaßt sich mit der Bestimmung der Mächtigkeiten von sedimentären Überlagerungen im südlichen Homer Becken. Die Untersuchung erfolgt mit Hilfe der Seisrnik und Gravimetrie.
Aus den Meßergebnissen der Übungen zur Angewandten Geophysik der Jahre 1985 bis 1990 werden die geeigneten Daten übernommen, neu ausgewertet und mit notwendigen gravimetrischen Ergänzungsmessungen zu zwei das südliche Homer Becken querenden Profilen ergänzt.
Das Untersuchungsgebiet liegt im Überschiebungsbereich von Moravikum und Moldanubikum. Das Grundgebirge fällt am östlichen Beckenrand steil ab und taucht gegen Westen flacher auf. Die Berechnungen ergeben Tiefenwerte für den kristallinen Untergrund von bis zu 100 Meter bei Nonndorf und 125 Meter bei Kotzendorf. Anhand der Ergebnisse können Informationen über die Mächtigkeit der sedimentären Ablagerungen und den Verlauf des Grundgebirges im Becken entnommen werden.
Weiters lassen die Resultate der Studie auf die ungefähre Lage des Beckenrandbruches schließen.
Die vorliegende Arbeit befaßt sich mit der Bestimmung der Mächtigkeiten von sedimentären Überlagerungen im südlichen Homer Becken. Die Untersuchung erfolgt mit Hilfe der Seisrnik und Gravimetrie.
Aus den Meßergebnissen der Übungen zur Angewandten Geophysik der Jahre 1985 bis 1990 werden die geeigneten Daten übernommen, neu ausgewertet und mit notwendigen gravimetrischen Ergänzungsmessungen zu zwei das südliche Homer Becken querenden Profilen ergänzt.
Das Untersuchungsgebiet liegt im Überschiebungsbereich von Moravikum und Moldanubikum. Das Grundgebirge fällt am östlichen Beckenrand steil ab und taucht gegen Westen flacher auf. Die Berechnungen ergeben Tiefenwerte für den kristallinen Untergrund von bis zu 100 Meter bei Nonndorf und 125 Meter bei Kotzendorf. Anhand der Ergebnisse können Informationen über die Mächtigkeit der sedimentären Ablagerungen und den Verlauf des Grundgebirges im Becken entnommen werden.
Weiters lassen die Resultate der Studie auf die ungefähre Lage des Beckenrandbruches schließen.
Die digitale Architekturbildmessung im Joint Research Center der Europäischen Kommission in Ispra
Institut für Photogrammetrie und Pernerkundung. TU Wien, 1997. Begutachter: Univ.-Prof. Dr. P Waldhäusl, Betreuer: Dr. H. Kager.
Kurzfassung/Abstract
Die Hauptaufgabe der Photogrammetrie ist die dreidimensionale Rekonstruktion räumlicher Objekte anhand ihrer zweidimensionalen Abbildungen in Photographien oder in modernen digitalen Aufnahmen. Die Bearbeitung digitaler Bilder setzt dazu passende "digitale Auswertesysteme" voraus, die nun die analogen und analytischen Auswertegeräte ablösen sollen. Diese neue Technik soll den langwierigen Weg einer photogrammetrischen Auswertung effizienter und produktiver gestalten.
Die hier beschriebene Diplomarbeit hat sich zum Ziel gesetzt. die Anwendbarkeit dieses neuen "Werkzeuges" an Beispielen der Architekturbildmessung zu untersuchen. Es wird der praktische Einsatz der Digitale Photogrammetrische Workstation DPW von Leica-Helava an drei Kulturdenkmäleren im Zentrum von Palermo vorgestellt, die im Rahmen der Diplomarbeit im Joint Research Center der Europäischen Kommission in Ispra (Italien) bearbeitet worden sind.
Die DPW Leica-Helava beeindruckt durch die rasche und einfache Durchführung vieler Arbeitsschritte: Dazu zählen die möglichen Bildverbesserungsoperationen, die gut unterstützte Bildkoordinatenmessung bei der Wiederherstellung der inneren und äußeren Orientierung, die automatische Gewinnung digitaler Oberflächenmodelle und die Erzeugung digitaler Orthophotos, digitaler Bildkarten oder Perspektivansichten.
Aber nicht alle Arbeitsschritte einer terrestrischen Bildauswertung können mit der DPW Leica-Helava zur vollständigen Zufriedenheit gelöst werden, da sie nämlich vorwiegend für die Luft- und Satellitenbildauswertung entwickelt worden ist. Es fehlt der allgemeine Ansatz. Es wird aber eine vorteilhafte Strategie gezeigt, um auch Projekte auf dem Gebiet der Architekturbildmessung gut bearbeiten zu können: Eine Kombination mit dem universellen photogrammetrischen Ausgleichungssystem ORIENT, das dafür in Ispra installiert worden ist. (Die aufgetretenen Schwierigkeiten bei der Triangulation mit der DPW Leica-Helava sind inzwischen teilweise durch einen neuen Nahbereichsmodul MAAS-CR behoben worden.)
Die automatische Oberflächenrekonstruktion, bei der die Höhen in unglaublicher Geschwindigkeit durch die implementierte Hierarchische Relaxationsmethode ermittelt werden, setzt für gute Auswerteergebnisse Stereomodelle voraus, die auch dem menschlichen Auswerter einen zufriedenstellenden dreidimensionalen Eindruck vermitteln. Eine echt dreidimensionale Oberflächenbeschreibung komplexer Objekte, wie sie z.B. für Statuen benötigt wird, ist bisher noch nicht möglich.
Die Hauptaufgabe der Photogrammetrie ist die dreidimensionale Rekonstruktion räumlicher Objekte anhand ihrer zweidimensionalen Abbildungen in Photographien oder in modernen digitalen Aufnahmen. Die Bearbeitung digitaler Bilder setzt dazu passende "digitale Auswertesysteme" voraus, die nun die analogen und analytischen Auswertegeräte ablösen sollen. Diese neue Technik soll den langwierigen Weg einer photogrammetrischen Auswertung effizienter und produktiver gestalten.
Die hier beschriebene Diplomarbeit hat sich zum Ziel gesetzt. die Anwendbarkeit dieses neuen "Werkzeuges" an Beispielen der Architekturbildmessung zu untersuchen. Es wird der praktische Einsatz der Digitale Photogrammetrische Workstation DPW von Leica-Helava an drei Kulturdenkmäleren im Zentrum von Palermo vorgestellt, die im Rahmen der Diplomarbeit im Joint Research Center der Europäischen Kommission in Ispra (Italien) bearbeitet worden sind.
Die DPW Leica-Helava beeindruckt durch die rasche und einfache Durchführung vieler Arbeitsschritte: Dazu zählen die möglichen Bildverbesserungsoperationen, die gut unterstützte Bildkoordinatenmessung bei der Wiederherstellung der inneren und äußeren Orientierung, die automatische Gewinnung digitaler Oberflächenmodelle und die Erzeugung digitaler Orthophotos, digitaler Bildkarten oder Perspektivansichten.
Aber nicht alle Arbeitsschritte einer terrestrischen Bildauswertung können mit der DPW Leica-Helava zur vollständigen Zufriedenheit gelöst werden, da sie nämlich vorwiegend für die Luft- und Satellitenbildauswertung entwickelt worden ist. Es fehlt der allgemeine Ansatz. Es wird aber eine vorteilhafte Strategie gezeigt, um auch Projekte auf dem Gebiet der Architekturbildmessung gut bearbeiten zu können: Eine Kombination mit dem universellen photogrammetrischen Ausgleichungssystem ORIENT, das dafür in Ispra installiert worden ist. (Die aufgetretenen Schwierigkeiten bei der Triangulation mit der DPW Leica-Helava sind inzwischen teilweise durch einen neuen Nahbereichsmodul MAAS-CR behoben worden.)
Die automatische Oberflächenrekonstruktion, bei der die Höhen in unglaublicher Geschwindigkeit durch die implementierte Hierarchische Relaxationsmethode ermittelt werden, setzt für gute Auswerteergebnisse Stereomodelle voraus, die auch dem menschlichen Auswerter einen zufriedenstellenden dreidimensionalen Eindruck vermitteln. Eine echt dreidimensionale Oberflächenbeschreibung komplexer Objekte, wie sie z.B. für Statuen benötigt wird, ist bisher noch nicht möglich.
Klassenorientierte Formulierung des mathematischen Modells von ORIENT
Institut für Photogrammetrie und Fernerkundung TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuer: Dr. H. Kager.
Kurzfassung/Abstract
Klassenorientierte - anstelle des üblichen aber irreführenden "objektorientierte" - Softwareentwicklung hilft grundlegende Qualitäten von Programmsystemen wie Zuverlässigkeit, Erweiterbarkeit und Wiederverwendbarkeit besser zu erfüllen. In dieser Arbeit wird das mathematische Modell des universellen Ausgleichungssytems ORIENT, das am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien entwickelt wurde, klassenorientiert formuliert und implementiert.
Das mathematische Modell bietet Ausgleichungsmöglichkeiten unter anderem für beobachtete Punkte in Photos und in Aufnahmen von Abtastern, für beobachtete Punkte in dreidimensionalen Modellen, für Polarpunktbeobachtungen und für Gestaltbeobachtungen.
Für die Implementierung wird die Entwicklungsumgebung EIFFEL verwendet.
Aufbauend auf einem Überblick über das mathematische Modell wird in den darauf folgenden Abschnitten die klassenorientierte Analyse dieses und die Implementierung der einzelnen Klassen behandelt.
Die für die Ausgleichung hybrider Punktbestimmungen notwendigen Transformationen werden aus den Abbildungsgleichungen der räumlichen Ähnlichkeitstransformation abgeleitet. Bei der Implementierung wird besonders darauf geachtet, die dadurch entstehenden Relationen zwischen den unterschiedlichen Transformationen, in adäquater Weise umzusetzen.
Klassenorientierte - anstelle des üblichen aber irreführenden "objektorientierte" - Softwareentwicklung hilft grundlegende Qualitäten von Programmsystemen wie Zuverlässigkeit, Erweiterbarkeit und Wiederverwendbarkeit besser zu erfüllen. In dieser Arbeit wird das mathematische Modell des universellen Ausgleichungssytems ORIENT, das am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien entwickelt wurde, klassenorientiert formuliert und implementiert.
Das mathematische Modell bietet Ausgleichungsmöglichkeiten unter anderem für beobachtete Punkte in Photos und in Aufnahmen von Abtastern, für beobachtete Punkte in dreidimensionalen Modellen, für Polarpunktbeobachtungen und für Gestaltbeobachtungen.
Für die Implementierung wird die Entwicklungsumgebung EIFFEL verwendet.
Aufbauend auf einem Überblick über das mathematische Modell wird in den darauf folgenden Abschnitten die klassenorientierte Analyse dieses und die Implementierung der einzelnen Klassen behandelt.
Die für die Ausgleichung hybrider Punktbestimmungen notwendigen Transformationen werden aus den Abbildungsgleichungen der räumlichen Ähnlichkeitstransformation abgeleitet. Bei der Implementierung wird besonders darauf geachtet, die dadurch entstehenden Relationen zwischen den unterschiedlichen Transformationen, in adäquater Weise umzusetzen.
Kartographische Informationsvisualisierung am Bildschirm mit Hilfe von Informationsebenen - Möglichkeiten und Grenzen einer neuen Informationsdarstellung
Institut für Kartographie und Reproduktionstechnik, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. F. Kelnhofer, Betreuer: Dipl.- Ing. R. Ditz.
Kurzfassung/Abstract
Die moderne Informations- und Kommunikationstechnik hat bezüglich Kartenherstellung, Erfassung, Verarbeitung und Darstellung raumbezogener Daten grundlegende Veränderungen ausgelöst. Interaktive kartographische Informationssysteme (IKIS) ermöglichen durch die Integration von Datenbanken und kartographischen Konstruktionssystemen eine vielfältige Nutzung, und es zeichnet sich eine erhebliche Erweiterung der Funktion von Karten ab. Sie sind nicht mehr nur Speicher von räumlichen Informationen sondern entwickeln sich in zunehmendem Maße zu interaktiven, dynamischen Kommunikationswerkzeugen zur Präsentation von Raumwissen mit dem Ziel, dem Nutzer ein aktives Denken, Erfahren und Verstehen von räumlichen Zusammenhängen zu ermöglichen.
Hypermediale Kartensysteme als eine Anzahl von Bildschirmkarten, in denen Informationen interaktiv oder dialoggesteuert verarbeitet werden, sollen zu einer Individualisierung der Lernzeiten und -wege führen und ein selbstverantwortetes, eigenständiges und kreatives Arbeiten unterstützen, somit also eine effektivere und effizientere Verarbeitung raumbezogenen Wissens fördern. Das Ziel derartiger Systeme ist es, den gedruckten Atlas sinnvoll zu ergänzen und zu erweitern, den Zugang zu den Informationen zu erleichtern und Funktionen anzubieten, die in der gedruckten Form nicht, oder nur umständlich realisierbar sind.
Der im Zuge eines Forschungsprojekts geplante interaktive kartographische Atlas von Österreich soll den Benutzern qualitativ gute Karten in vielfältiger Form liefern, verschiedene Sichten auf Daten gestatten und Abfrage- und Analysemöglichkeiten anbieten. Im Zuge dieser Diplomarbeit wurden gewisse Vorarbeiten für die Erstellung eines Prototyps geleistet - vor allem hinsichtlich der kartographischen Gestaltung - und diverse Grundprobleme bei der Bildschirmvisualisierung aufgezeigt. Das Hauptaugenmerk galt der Untersuchung von Signaturen und Schriften, ihrer für den Bildschirm in Frage kommenden Arten und Größen, der Festlegung notwendiger Mindestgrößen und Minimalabstände, der Problematik bei der Symbolisierung von Linien und der Farbgestaltung.
Basierend auf den Erkenntnissen dieser Betrachtungen soll eine Reihe von Kartenbeispielen - von einer groben Überblicksdarstellung im Maßstab 1:2, 250.000 bis hin zur Detailkarte 1:750.000 - mögliche Lösungen für eine kartographische Darstellung angeben. Anhand von gewählten Ausschnitten wird aufgezeigt, wie die Kartengraphik und der Karteninhalt dieser Maßstabsreihe des IKIS aussehen könnte und inwiefern eine der gedruckten Karte ähnliche Darstellung am Bildschirm realisierbar ist.
Die moderne Informations- und Kommunikationstechnik hat bezüglich Kartenherstellung, Erfassung, Verarbeitung und Darstellung raumbezogener Daten grundlegende Veränderungen ausgelöst. Interaktive kartographische Informationssysteme (IKIS) ermöglichen durch die Integration von Datenbanken und kartographischen Konstruktionssystemen eine vielfältige Nutzung, und es zeichnet sich eine erhebliche Erweiterung der Funktion von Karten ab. Sie sind nicht mehr nur Speicher von räumlichen Informationen sondern entwickeln sich in zunehmendem Maße zu interaktiven, dynamischen Kommunikationswerkzeugen zur Präsentation von Raumwissen mit dem Ziel, dem Nutzer ein aktives Denken, Erfahren und Verstehen von räumlichen Zusammenhängen zu ermöglichen.
Hypermediale Kartensysteme als eine Anzahl von Bildschirmkarten, in denen Informationen interaktiv oder dialoggesteuert verarbeitet werden, sollen zu einer Individualisierung der Lernzeiten und -wege führen und ein selbstverantwortetes, eigenständiges und kreatives Arbeiten unterstützen, somit also eine effektivere und effizientere Verarbeitung raumbezogenen Wissens fördern. Das Ziel derartiger Systeme ist es, den gedruckten Atlas sinnvoll zu ergänzen und zu erweitern, den Zugang zu den Informationen zu erleichtern und Funktionen anzubieten, die in der gedruckten Form nicht, oder nur umständlich realisierbar sind.
Der im Zuge eines Forschungsprojekts geplante interaktive kartographische Atlas von Österreich soll den Benutzern qualitativ gute Karten in vielfältiger Form liefern, verschiedene Sichten auf Daten gestatten und Abfrage- und Analysemöglichkeiten anbieten. Im Zuge dieser Diplomarbeit wurden gewisse Vorarbeiten für die Erstellung eines Prototyps geleistet - vor allem hinsichtlich der kartographischen Gestaltung - und diverse Grundprobleme bei der Bildschirmvisualisierung aufgezeigt. Das Hauptaugenmerk galt der Untersuchung von Signaturen und Schriften, ihrer für den Bildschirm in Frage kommenden Arten und Größen, der Festlegung notwendiger Mindestgrößen und Minimalabstände, der Problematik bei der Symbolisierung von Linien und der Farbgestaltung.
Basierend auf den Erkenntnissen dieser Betrachtungen soll eine Reihe von Kartenbeispielen - von einer groben Überblicksdarstellung im Maßstab 1:2, 250.000 bis hin zur Detailkarte 1:750.000 - mögliche Lösungen für eine kartographische Darstellung angeben. Anhand von gewählten Ausschnitten wird aufgezeigt, wie die Kartengraphik und der Karteninhalt dieser Maßstabsreihe des IKIS aussehen könnte und inwiefern eine der gedruckten Karte ähnliche Darstellung am Bildschirm realisierbar ist.
Kombinierte Ausgleichung von terrestrischen und GPS-Messungen
Institut für Theoretische Geodäsie und Geophysik, Abteilung Theoretische Geodäsie, TU Wien, 1997. Begutachter: Univ.- Prof. Dr. K. Bretterbauer, Betreuer: Dr. W. Daxinger.
Kurzfassung/Abstract
Ziel dieser Arbeit ist die Festlegung und Implementierung eines für die Praxis geeigneten Modells zur kombinierten dreidimensionalen Ausgleichung von terrestrischen und satellitengestützten Meßdaten.
Die hybride Ausgleichung im Gebrauchskoordinatensystem bei gleichzeitiger Bestimmung der Koordinatenunbekannten und der Transformationsparameter (drei Drehungen und ein Maßstab) für die Überführung der GPS-Vektoren vom WGS 84 ins jeweilige Landessystem stellt eine neue, theoretisch einwandfreie und praxistaugliche Methode dar. Im Gegensatz zu bereits bestehenden Modellen handelt es sich um ein einstufiges Verfahren, welches auch die Verarbeitung einzelner, nicht zusammenhängender Vektoren erlaubt.
Die drei Verbesserungsgleichungen für jeden GPS-Vektor sind wie bei allen anderen Beobachtungstypen als Funktion der Gebrauchskoordinaten formuliert. Da man die Elemente der Koeffizientenmatrix für GPS- Vektoren durch numerische Differentiation erhält, ist dieser Ansatz an kein bestimmtes Projektionssystem gebunden. Bei der GPS- Phasenauswertung fallen unter anderem die Korrelationen zwischen den Komponenten jedes Vektors an. Diese werden in der Gewichtsmatrix der Ausgleichung berücksichtigt.
Die Einpassung in das Gebrauchsnetz wird durch eine freie Ausgleichung mit gewichteter Teilspurminimierung (dreidimensionale Ränderungsmatrix) realisiert. Es besteht die Möglichkeit, die Punktqualität der ausgewählten Datumspunkte zu berücksichtigen und den Anforderungen der Praxis entsprechend zwischen Voll-, Lage- und Höhenpaßpunkten zu unterscheiden.
Nach der Überprüfung des Ausgleichungsmodells mittels eines Turbo-Pascal programmierten Prototyps erfolgte die Umsetzung des Algorithmus in das Programmodul rmNetz-GPS.
Die Auswerteergebnisse des im Rahmen der Diplomarbeit sowohl terrestrisch als auch satellitengestützt vermessenen Testnetzes belegen ebenso wie die angeführte Kostenabschätzung, daß die Zusammenführung heterogener Meßdaten nicht nur aus technischer sondern auch aus wirtschaftlicher Sicht von Vorteil ist.
Ziel dieser Arbeit ist die Festlegung und Implementierung eines für die Praxis geeigneten Modells zur kombinierten dreidimensionalen Ausgleichung von terrestrischen und satellitengestützten Meßdaten.
Die hybride Ausgleichung im Gebrauchskoordinatensystem bei gleichzeitiger Bestimmung der Koordinatenunbekannten und der Transformationsparameter (drei Drehungen und ein Maßstab) für die Überführung der GPS-Vektoren vom WGS 84 ins jeweilige Landessystem stellt eine neue, theoretisch einwandfreie und praxistaugliche Methode dar. Im Gegensatz zu bereits bestehenden Modellen handelt es sich um ein einstufiges Verfahren, welches auch die Verarbeitung einzelner, nicht zusammenhängender Vektoren erlaubt.
Die drei Verbesserungsgleichungen für jeden GPS-Vektor sind wie bei allen anderen Beobachtungstypen als Funktion der Gebrauchskoordinaten formuliert. Da man die Elemente der Koeffizientenmatrix für GPS- Vektoren durch numerische Differentiation erhält, ist dieser Ansatz an kein bestimmtes Projektionssystem gebunden. Bei der GPS- Phasenauswertung fallen unter anderem die Korrelationen zwischen den Komponenten jedes Vektors an. Diese werden in der Gewichtsmatrix der Ausgleichung berücksichtigt.
Die Einpassung in das Gebrauchsnetz wird durch eine freie Ausgleichung mit gewichteter Teilspurminimierung (dreidimensionale Ränderungsmatrix) realisiert. Es besteht die Möglichkeit, die Punktqualität der ausgewählten Datumspunkte zu berücksichtigen und den Anforderungen der Praxis entsprechend zwischen Voll-, Lage- und Höhenpaßpunkten zu unterscheiden.
Nach der Überprüfung des Ausgleichungsmodells mittels eines Turbo-Pascal programmierten Prototyps erfolgte die Umsetzung des Algorithmus in das Programmodul rmNetz-GPS.
Die Auswerteergebnisse des im Rahmen der Diplomarbeit sowohl terrestrisch als auch satellitengestützt vermessenen Testnetzes belegen ebenso wie die angeführte Kostenabschätzung, daß die Zusammenführung heterogener Meßdaten nicht nur aus technischer sondern auch aus wirtschaftlicher Sicht von Vorteil ist.
Anwendung von Fuzzy-Clustering für die Landnutzungsklassifizierung in der Fernerkundung
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Doz. Dr. J. Jansa.
Kurzfassung/Abstract
Die automatische Mustererkennung mit Verwendung der Fuzzy-Logik, als Begriff Fuzzy-Clustering, hat in den letzten Jahren in vielen Bereichen Anwendung gefunden. Als Beispiele sind - ohne Anspruch auf Vollständigkeit - die Computer-Tomographie, Prozeßidentifikation, Wettervorhersage, Oualitätssicherung, medizinische Diagnostik, Handschriftenerkennung zu nennen. Da man die spektralen Eigenschaften verschiedener Bodenbedeckungen auch als Muster im Grauwerteraum interpretieren kann, soll anhand dieser Diplomarbeit untersucht werden, ob das Verfahren des Fuzzy-Clustering im Bereich der Landnutzungsklassifizierung sinnvoll angewendet werden kann. Um die Ergebnisse des Fuzzy-Clustering interpretieren zu können, werden sie in einem Testgebiet den Klassifizierungsergebnissen von herkömmlichen Verfahren (Mahalanobis Distance, Maximum Likelihood und Minimum Distance) gegenübergestellt. Für diesen Vergleich wurde der Klassifizierungsschlüssel von CORINE Landcover aus folgenden Motiven gewählt:
CORINE Landcover besitzt als vorgeschriebener Klassifizierungsschlüssel für Mitgliedsländer der FU eine europaweite praktische Bedeutung. Eine möglichst weitgehende Automatisierung, die bei ausreichender Qualität der Ergebnisse die manuelle Klassifikation unterstützen könnte, würde eine erhebliche Arbeitseinsparung bedeuten.
Die CORINE Kartierung stand als Ground Truth für das Testgebiet zur Beurteilung der Qualität der Fuzzy-Klassifizierungsergebnisse zur Verfügung.
Man erkennt, daß die Verfahren, obwohl sie für ganz andere Problemstellungen entwickelt wurden, beachtliche und zu den herkömmlichen Verfahren gleichwertige Ergebnisse liefern. Dies ist erstaunlich, da die Fuzzy-Verfahren hier zum ersten Mal angewendet wurden und somit sicherlich noch einige Verbesserungen - also für die Fernerkundung notwendige Adaptierungen - möglich sind.
Die automatische Mustererkennung mit Verwendung der Fuzzy-Logik, als Begriff Fuzzy-Clustering, hat in den letzten Jahren in vielen Bereichen Anwendung gefunden. Als Beispiele sind - ohne Anspruch auf Vollständigkeit - die Computer-Tomographie, Prozeßidentifikation, Wettervorhersage, Oualitätssicherung, medizinische Diagnostik, Handschriftenerkennung zu nennen. Da man die spektralen Eigenschaften verschiedener Bodenbedeckungen auch als Muster im Grauwerteraum interpretieren kann, soll anhand dieser Diplomarbeit untersucht werden, ob das Verfahren des Fuzzy-Clustering im Bereich der Landnutzungsklassifizierung sinnvoll angewendet werden kann. Um die Ergebnisse des Fuzzy-Clustering interpretieren zu können, werden sie in einem Testgebiet den Klassifizierungsergebnissen von herkömmlichen Verfahren (Mahalanobis Distance, Maximum Likelihood und Minimum Distance) gegenübergestellt. Für diesen Vergleich wurde der Klassifizierungsschlüssel von CORINE Landcover aus folgenden Motiven gewählt:
Visualisierung von Zähldaten in thematischen Karten unter besonderer Berücksichtigung topologischer Bezüge
Institut für Kartographie und Reproduktionstechnik, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. F. Kelnhofer, Betreuer: Dipl.- Ing. A. Pammer.
Kurzfassung/Abstract
Die Arbeit beschäftigt sich mit der Visualisierung von statistischen Daten in thematischen Karten. Auf Grund der beschränkten menschlichen Perzeption müssen die Daten durch eine Gruppierung aufbereitet werden, um für den Kartenbenutzer lesbar zu sein. Eine Gruppierung nach ausschließlich statistischen Grundsätzen zerstört aber die räumlichen Bezüge, die im Datenmaterial auf Grund der ortsbezogenen Erhebung (nach administrativen Grenzen) zweifelsohne vorhanden sind. Hier setzt nun die vorliegende Arbeit an, indem sie zwei neue Ansätze vorstellt, die es erlauben, auch räumliche (topologische) Bezüge im Gruppierungsprozess zu berücksichtigen.
Im ersten Teil der Arbeit werden bereits existierende Gruppierungsverfahren - räumliche ebenso wie nichträumliche - vorgestellt, im zweiten Teil dann die von mir entwickelten nachbarschaftsbezogenen Ansätze beschrieben. Diese sind in einem modularen Programmpaket implementiert. Es schließt sich eine Beschreibung der Programmierumgebung und der Benutzeroberfläche an. An einem Beispiel wird zuletzt die Wirkung der neuen räumlichen Gruppierungsverfahren demonstriert.
Die Arbeit beschäftigt sich mit der Visualisierung von statistischen Daten in thematischen Karten. Auf Grund der beschränkten menschlichen Perzeption müssen die Daten durch eine Gruppierung aufbereitet werden, um für den Kartenbenutzer lesbar zu sein. Eine Gruppierung nach ausschließlich statistischen Grundsätzen zerstört aber die räumlichen Bezüge, die im Datenmaterial auf Grund der ortsbezogenen Erhebung (nach administrativen Grenzen) zweifelsohne vorhanden sind. Hier setzt nun die vorliegende Arbeit an, indem sie zwei neue Ansätze vorstellt, die es erlauben, auch räumliche (topologische) Bezüge im Gruppierungsprozess zu berücksichtigen.
Im ersten Teil der Arbeit werden bereits existierende Gruppierungsverfahren - räumliche ebenso wie nichträumliche - vorgestellt, im zweiten Teil dann die von mir entwickelten nachbarschaftsbezogenen Ansätze beschrieben. Diese sind in einem modularen Programmpaket implementiert. Es schließt sich eine Beschreibung der Programmierumgebung und der Benutzeroberfläche an. An einem Beispiel wird zuletzt die Wirkung der neuen räumlichen Gruppierungsverfahren demonstriert.
Studien zur Skisprung-Video- Weitenmessung
Abteilung für Fernerkundung, Bildverarbeitung und Kartographie, TU Graz, 1997. Begutachter: Univ.-Prof. Dr. G. Brandstätter.
Kurzfassung/Abstract
Anhand einer bearbeiteten Videosequenz wird erläutert, wie eine automatische Skisprungweitenmessung mittels optischem Verfahren erfolgen kann. Hierbei wird der Weg von der Videoaufzeichnung über die rechnerische Verarbeitung bis zur räumlichen Rekonstruktion des Landepunktes beschrieben. In der Vorverarbeitung finden verschiedene Filtertechniken Anwendung. Aus einer Bewegungsanalyse des dedektierten Objektes (Skispringer) wird mit Hilfe des Trägheitstensormodells und der Bestimmung von Verschiebungsvektoren der Landepunkt im Bild erkannt. Die räumliche Rekonstruktion des Landepunktes erfolgt mittels photogrammetrischer Verfahren.
Anhand einer bearbeiteten Videosequenz wird erläutert, wie eine automatische Skisprungweitenmessung mittels optischem Verfahren erfolgen kann. Hierbei wird der Weg von der Videoaufzeichnung über die rechnerische Verarbeitung bis zur räumlichen Rekonstruktion des Landepunktes beschrieben. In der Vorverarbeitung finden verschiedene Filtertechniken Anwendung. Aus einer Bewegungsanalyse des dedektierten Objektes (Skispringer) wird mit Hilfe des Trägheitstensormodells und der Bestimmung von Verschiebungsvektoren der Landepunkt im Bild erkannt. Die räumliche Rekonstruktion des Landepunktes erfolgt mittels photogrammetrischer Verfahren.
Modellierung des Ionosphäreneinflusses zur Lösung von GPS-Phasenmehrdeutigkeiten
Institut für Theoretische Geodäsie und Geophysik, Abteilung Theoretische Geodäsie, TU Wien, 1997. Begutachter: Univ.- Prof. Dr. K. Bretterbauer, Betreuer: Dr. R. Weber.
Kurzfassung/Abstract
Die Laufzeitverzögerung, verursacht durch die Ionosphäre, stellt die letzte große Fehlerquelle von GPS dar. Die Verzögerung der GPS-Signale ist proportional der Anzahl, der in der Ionosphäre enthaltenen freien Elektronen und zeigt zusätzlich eine starke Abhängigkeit vom "Cut-Off"-Winkel. Für GPS bedeutet dies, daß durch die Vernachlässigung des ionophärischen Effektes in erster Linie eine scheinbare Verkürzung der Basislinienlänge bewirkt wird, die bis zu mehreren ppm betragen kann. Zusätzlich kann der Einfluß der Ionosphäre die Mehrdeutigkeitsfestlegung, vor allem für kürzere Beobachtungszeiten ("Rapid Static"- Positionierung), erschweren oder sogar verhindern. Man versucht daher diese Fehlerquelle in Form von Modellen zu erfassen. Generell werden empirische, deterministische und stochastische Ionosphärenmodelle unterschieden, wobei der Schwerpunkt dieser Arbeit auf den beiden letztgenannten liegt.
Um die Qualität und die Möglichkeiten des Einsatzes der verschiedenen Modellierungstechniken zu zeigen, wurde im Raum Salzburg vom 15. bis 17. Juli 1995 ein GPS-Netz (Basislinienlängen von 6 km bis 64 km), bestehend aus 5 Stationen (Leica GPS-System 200), ausgemessen. Die Auswertung zeigt, wie sich die maximale Elektronendichte von etwa 12 TECU in Abhängigkeit von der Beobachtungszeit auf das GPS-Netz auswirkt, und wie die einzelnen Modellierungstechniken mit der an sich ,schwachen" Ionosphäre zurechtkommen.
Die Laufzeitverzögerung, verursacht durch die Ionosphäre, stellt die letzte große Fehlerquelle von GPS dar. Die Verzögerung der GPS-Signale ist proportional der Anzahl, der in der Ionosphäre enthaltenen freien Elektronen und zeigt zusätzlich eine starke Abhängigkeit vom "Cut-Off"-Winkel. Für GPS bedeutet dies, daß durch die Vernachlässigung des ionophärischen Effektes in erster Linie eine scheinbare Verkürzung der Basislinienlänge bewirkt wird, die bis zu mehreren ppm betragen kann. Zusätzlich kann der Einfluß der Ionosphäre die Mehrdeutigkeitsfestlegung, vor allem für kürzere Beobachtungszeiten ("Rapid Static"- Positionierung), erschweren oder sogar verhindern. Man versucht daher diese Fehlerquelle in Form von Modellen zu erfassen. Generell werden empirische, deterministische und stochastische Ionosphärenmodelle unterschieden, wobei der Schwerpunkt dieser Arbeit auf den beiden letztgenannten liegt.
Um die Qualität und die Möglichkeiten des Einsatzes der verschiedenen Modellierungstechniken zu zeigen, wurde im Raum Salzburg vom 15. bis 17. Juli 1995 ein GPS-Netz (Basislinienlängen von 6 km bis 64 km), bestehend aus 5 Stationen (Leica GPS-System 200), ausgemessen. Die Auswertung zeigt, wie sich die maximale Elektronendichte von etwa 12 TECU in Abhängigkeit von der Beobachtungszeit auf das GPS-Netz auswirkt, und wie die einzelnen Modellierungstechniken mit der an sich ,schwachen" Ionosphäre zurechtkommen.
Visualisierung von Rückbauten in der Landschaft - Landschaftsentwicklung Retzer See
Institut für Photogrammetrie und Fernerkundung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. K. Kraus, Betreuerin: Dipl.-Ing. A. Sindhuber.
Kurzfassung/Abstract
Das nördliche Weinviertel ist trotz des Vorhandenseins von Feuchtflächen und Teichen in früherer Zeit von jeher durch Wasserarmut geprägt. Um den Auswirkungen dieser Trockenheit zu begegnen. sind derzeit zahlreiche kleinräumige Projekte in Arbeit, die eine Verbesserung des Kleinklimas zum Ziel haben. Dazu werden unter anderem die Verbesserung der Rückhaltefähigkeit des Bodens, die Erhöhung der Wasserqualität der Fließgewässer und die Vergrößerung der Verdunstflächen angestrebt.
Als eine dieser Maßnahmen plant auch die Stadtgemeinde Retz die Wiederbefüllung des Retzer Sees, eines vor über 200 Jahren trockengelegten Teiches südöstlich der Stadt. Da über Art und Höhe der Befüllung noch große Uneinigkeit herrscht, entstand der Wunsch nach Visualisierung der verschiedenen Möglichkeiten. Solche Visualisierungen bieten eine gute Diskussionsgrundlage.
Aufgabe dieser Arbeit ist es daher, eine Visualisierung des lnteressensgebietes herzustellen und mit Simulationen verschiedener Seeoberflächen, entsprechend den verschiedenen Wasserständen, zu kombinieren.
Zu diesem Zweck wurden zunächst aus Luftbildern die Daten für ein digitales Geländemodell erfaßt. Das digitale Geländemodell wurde mit Hilfe des Programmpaketes SCOP berechnet. Es wurde in der Folge in verschiedenen Perspektivansichten, überlagert mit variierenden Wasserspiegeln, dargestellt. Für die eigentliche Visualisierung und für die graphische Ausgabe der Ergebnisse wurde das GIS-Programmsystem ARC/INFO benutzt.
Das nördliche Weinviertel ist trotz des Vorhandenseins von Feuchtflächen und Teichen in früherer Zeit von jeher durch Wasserarmut geprägt. Um den Auswirkungen dieser Trockenheit zu begegnen. sind derzeit zahlreiche kleinräumige Projekte in Arbeit, die eine Verbesserung des Kleinklimas zum Ziel haben. Dazu werden unter anderem die Verbesserung der Rückhaltefähigkeit des Bodens, die Erhöhung der Wasserqualität der Fließgewässer und die Vergrößerung der Verdunstflächen angestrebt.
Als eine dieser Maßnahmen plant auch die Stadtgemeinde Retz die Wiederbefüllung des Retzer Sees, eines vor über 200 Jahren trockengelegten Teiches südöstlich der Stadt. Da über Art und Höhe der Befüllung noch große Uneinigkeit herrscht, entstand der Wunsch nach Visualisierung der verschiedenen Möglichkeiten. Solche Visualisierungen bieten eine gute Diskussionsgrundlage.
Aufgabe dieser Arbeit ist es daher, eine Visualisierung des lnteressensgebietes herzustellen und mit Simulationen verschiedener Seeoberflächen, entsprechend den verschiedenen Wasserständen, zu kombinieren.
Zu diesem Zweck wurden zunächst aus Luftbildern die Daten für ein digitales Geländemodell erfaßt. Das digitale Geländemodell wurde mit Hilfe des Programmpaketes SCOP berechnet. Es wurde in der Folge in verschiedenen Perspektivansichten, überlagert mit variierenden Wasserspiegeln, dargestellt. Für die eigentliche Visualisierung und für die graphische Ausgabe der Ergebnisse wurde das GIS-Programmsystem ARC/INFO benutzt.
Dammdeformationsmessung Koralpe: Terrestrisch und mit GPS
Abteilung für Allgemeine Geodäsie und Ingenieurgeodäsie, TU Graz, 1997. Begutachter: Univ.-Prof. Dr. F.K. Brunner, Betreuer: Dr. C. Meyer.
Kurzfassung/Abstract
Die Messungen zu dieser Diplomarbeit wurden an einem zum Kraftwerk Koralpe gehörigen Staudamm an der Grenze zwischen Kärnten und der Steiermark durchgeführt. Im Zuge dieser Arbeit wurde ein Grundlagennetz für eine Dammdeformationsmessung sowohl terrestrisch als auch mit dem Satellitenmeßverfahren (GPS) durchgeführt. Die anschließende Transformation der aus den GPS-Ergebnissen erhaltenen WG584-Koordinaten in das Gauß-Krüger-System zeigten keine signifikanten Unterschiede zu den terrestrischen Ergebnissen. Störeinflüsse zufolge von Mehrwegeeffekten in Wassernähe beeinflussen die erreichbaren Genauigkeiten in Ingenieurnetzen. Die Mehrwegeeinflüsse können direkt durch Bildung von Doppeldifferenzen oder an den Ergebnissen einer "pseudo" kinematischen Auswertung untersucht werden. Nach der Berechnung von Spektralanalysen wurden die Amplituden der Doppeldifferenz-Residuen bzw. deren Perioden ermittelt. Die Abhängigkeit der erreichbaren Genauigkeit von der Geometrie der Satelliten konnte ebenfalls festgestellt werden. Mit der Bildung von Kreuzkorrelationen wurde untersucht ob die Mehrwegeeffekte unter Berücksichtigung der aktuellen Zeitverschiebung der Satelliten von Tag zu Tag reproduzierbar sind. Abschließend wurde untersucht ob durch ein Verändern der Meßdauer eine Genauigkeitssteigerung möglich ist.
Die Messungen zu dieser Diplomarbeit wurden an einem zum Kraftwerk Koralpe gehörigen Staudamm an der Grenze zwischen Kärnten und der Steiermark durchgeführt. Im Zuge dieser Arbeit wurde ein Grundlagennetz für eine Dammdeformationsmessung sowohl terrestrisch als auch mit dem Satellitenmeßverfahren (GPS) durchgeführt. Die anschließende Transformation der aus den GPS-Ergebnissen erhaltenen WG584-Koordinaten in das Gauß-Krüger-System zeigten keine signifikanten Unterschiede zu den terrestrischen Ergebnissen. Störeinflüsse zufolge von Mehrwegeeffekten in Wassernähe beeinflussen die erreichbaren Genauigkeiten in Ingenieurnetzen. Die Mehrwegeeinflüsse können direkt durch Bildung von Doppeldifferenzen oder an den Ergebnissen einer "pseudo" kinematischen Auswertung untersucht werden. Nach der Berechnung von Spektralanalysen wurden die Amplituden der Doppeldifferenz-Residuen bzw. deren Perioden ermittelt. Die Abhängigkeit der erreichbaren Genauigkeit von der Geometrie der Satelliten konnte ebenfalls festgestellt werden. Mit der Bildung von Kreuzkorrelationen wurde untersucht ob die Mehrwegeeffekte unter Berücksichtigung der aktuellen Zeitverschiebung der Satelliten von Tag zu Tag reproduzierbar sind. Abschließend wurde untersucht ob durch ein Verändern der Meßdauer eine Genauigkeitssteigerung möglich ist.
Kalibrierung der Rolleiflex 6006 metric und deren Einsatz im Hochgebirge
Abteilung für Fernerkundung, Bildverarbeitung und Kartographie, TU Graz, 1997. Begutachter: Univ.-Prof. Dr. G. Brandstätter, Betreuer: Dr. V. Kaufmann.
Kurzfassung/Abstract
Seit einigen Jahren werden in der terrestrischen Photogrammetrie Teilmeßkammern wegen ihrer komfortablen Handhabung eingesetzt. Eine solche steht mit der Réseaukamera Rolleiflex 6006 metric (Bildformat 6Omm x 6Omm) am Institut für Angewandte Geodäsie zur Verfügung. Für das neu angeschaffte 150mm-Objektiv war die Verzeichnung im Rahmen einer Laborkalibrierung zu bestimmen. Zusätzlich war die innere Orientierung mit dem 50mm-Objektiv zu überprüfen, da sich die Kamera seit der letzten Kalibrierung in Reparatur befunden hatte.
Bei Untersuchungen zum Filmverzug wurden stark unterschiedliche Deformationen festgestellt, selbst zwischen den einzelnen Bildern eines Filmes. Weiters wurden die Filmfläche während der Belichtung und die dadurch hervorgerufenen Fehler in der Punktlage dargestellt.
Im Rahmen des Projektes "Zur Morphometrie und Dynamik von Blockgletschern im Dösener Tal" sollte die Kamera im Hochgebirge eingesetzt werden. Die jährlichen Bewegungen des Dösener Blockgletschers, der als Studienobjekt gewählt wurde, liegen in der Größenordnung von 10-30cm. Aus dem Jahr 1995 standen einige Aufnahmen zur Verfügung. Teil dieser Arbeit war die Durchführung der photogrammetrischen Aufnahmen im Sommer 1996. Hierfür wurde eine eigene Signalisierung entworfen. Unter anderem wurden umfangreiche Außenarbeiten, wie die Anlage und Einmessung des photogrammetrischen Netzes, durchgeführt. Wegen der schlechten Witterungsbedingungen im Aufnahmejahr konnte jedoch nur eine unvollständige Aufnahme erfolgen.
Aus Réseauuntersuchungen stellte sich heraus, daß die geforderte Genauigkeit ohne Réseaukorrektur nicht erreicht werden kann. Die Bestimmung der Fließgeschwindigkeiten aus jährlichen Aufnahmen schien bei den gegebenen technischen Möglichkeiten nicht sinnvoll.
Seit einigen Jahren werden in der terrestrischen Photogrammetrie Teilmeßkammern wegen ihrer komfortablen Handhabung eingesetzt. Eine solche steht mit der Réseaukamera Rolleiflex 6006 metric (Bildformat 6Omm x 6Omm) am Institut für Angewandte Geodäsie zur Verfügung. Für das neu angeschaffte 150mm-Objektiv war die Verzeichnung im Rahmen einer Laborkalibrierung zu bestimmen. Zusätzlich war die innere Orientierung mit dem 50mm-Objektiv zu überprüfen, da sich die Kamera seit der letzten Kalibrierung in Reparatur befunden hatte.
Bei Untersuchungen zum Filmverzug wurden stark unterschiedliche Deformationen festgestellt, selbst zwischen den einzelnen Bildern eines Filmes. Weiters wurden die Filmfläche während der Belichtung und die dadurch hervorgerufenen Fehler in der Punktlage dargestellt.
Im Rahmen des Projektes "Zur Morphometrie und Dynamik von Blockgletschern im Dösener Tal" sollte die Kamera im Hochgebirge eingesetzt werden. Die jährlichen Bewegungen des Dösener Blockgletschers, der als Studienobjekt gewählt wurde, liegen in der Größenordnung von 10-30cm. Aus dem Jahr 1995 standen einige Aufnahmen zur Verfügung. Teil dieser Arbeit war die Durchführung der photogrammetrischen Aufnahmen im Sommer 1996. Hierfür wurde eine eigene Signalisierung entworfen. Unter anderem wurden umfangreiche Außenarbeiten, wie die Anlage und Einmessung des photogrammetrischen Netzes, durchgeführt. Wegen der schlechten Witterungsbedingungen im Aufnahmejahr konnte jedoch nur eine unvollständige Aufnahme erfolgen.
Aus Réseauuntersuchungen stellte sich heraus, daß die geforderte Genauigkeit ohne Réseaukorrektur nicht erreicht werden kann. Die Bestimmung der Fließgeschwindigkeiten aus jährlichen Aufnahmen schien bei den gegebenen technischen Möglichkeiten nicht sinnvoll.
Der Einfluß von Datenqualität auf GIS- basierte Entscheidungen: Eine Untersuchung am Beispiel eines Ertragsmodells in der Landwirtschaft
Institut für Landesvermessung und Ingenieurgeodäsie, Abteilung Geoinformation und Landesvermessung, TU Wien, 1997. Begutachter: Univ.-Prof. Dr. A. Frank, Betreuer: Dipl.-Ing. M. Staudinger.
Kurzfassung/Abstract
In dieser Arbeit wird untersucht, ob es mit den derzeit in Österreich vorhandenen Boden- und Klimadaten und deren Qualität möglich ist, Ertragsprognosen für die Zukunft mit hinreichender Genauigkeit zu erstellen, um eine Steuerung der Landwirtschaftsproduktion in Richtung Minimierung des Düngereinsatzes erleichtern zu können. Dies wäre sowohl aus ökologischer, als auch aus ökonomischer Sicht anzustreben.
Mit Hilfe des Ertragssimulationsmodells "CERES" wird anhand von Beispielen die Standardabweichung bestimmt, mit der die Produktionsmenge von Körnermais, der in Österreich häufig angebaut wird und dessen Kultivierung oft Belastungen für die Umwelt mit sich bringt, im vorhinein berechnet werden kann.
Diese Standardabweichung liegt zwischen 8% und 25%. Die Einflüsse der Witterung spielen die Hauptrolle. Durch Einbeziehung der Bracheflächen (derzeit ca. 8,5% der Ackerfläche von Österreich) kann die gleiche Menge eines Produkts mit geringeren Hektarerträgen erzielt werden. Somit kann Dünger eingespart und die Umweltbelastung reduziert werden. Aus dem Konfidenzbereich für die Ertragsprognose in Abhängigkeit von der Düngermenge kann die für eine bestimmte Ertragserwartung notwendige Düngermenge mit zugehörigem Unsicherheitsbereich abgelesen werden.
Wird die Eignung der Anbauflächen für bestimmte Pflanzen hinsichtlich Bodentyp und regionalem Klima berücksichtigt, so könnte die Kombination von Simulationsmodellen, GIS und einem leistungsstarken Optimierungsprogramm zur Entscheidungshilfe in Blickrichtung Minimierung des Düngereinsatzes in der Landwirtschaftsproduktion herangezogen werden.
In dieser Arbeit wird untersucht, ob es mit den derzeit in Österreich vorhandenen Boden- und Klimadaten und deren Qualität möglich ist, Ertragsprognosen für die Zukunft mit hinreichender Genauigkeit zu erstellen, um eine Steuerung der Landwirtschaftsproduktion in Richtung Minimierung des Düngereinsatzes erleichtern zu können. Dies wäre sowohl aus ökologischer, als auch aus ökonomischer Sicht anzustreben.
Mit Hilfe des Ertragssimulationsmodells "CERES" wird anhand von Beispielen die Standardabweichung bestimmt, mit der die Produktionsmenge von Körnermais, der in Österreich häufig angebaut wird und dessen Kultivierung oft Belastungen für die Umwelt mit sich bringt, im vorhinein berechnet werden kann.
Diese Standardabweichung liegt zwischen 8% und 25%. Die Einflüsse der Witterung spielen die Hauptrolle. Durch Einbeziehung der Bracheflächen (derzeit ca. 8,5% der Ackerfläche von Österreich) kann die gleiche Menge eines Produkts mit geringeren Hektarerträgen erzielt werden. Somit kann Dünger eingespart und die Umweltbelastung reduziert werden. Aus dem Konfidenzbereich für die Ertragsprognose in Abhängigkeit von der Düngermenge kann die für eine bestimmte Ertragserwartung notwendige Düngermenge mit zugehörigem Unsicherheitsbereich abgelesen werden.
Wird die Eignung der Anbauflächen für bestimmte Pflanzen hinsichtlich Bodentyp und regionalem Klima berücksichtigt, so könnte die Kombination von Simulationsmodellen, GIS und einem leistungsstarken Optimierungsprogramm zur Entscheidungshilfe in Blickrichtung Minimierung des Düngereinsatzes in der Landwirtschaftsproduktion herangezogen werden.
Blockgletscher Monitoring im Dösener Tal: Überprüfung des Festpunktfeldes im Gebiet des Dösener Sees und Bestimmung des Stützpunktnetzes mittels GPS
Institut für Angewandte Geodäsie/Positionierung und Navigation, TU Graz, 1997. Begutachter und Betreuer: Univ.-Prof. Dr. B. Hofmann-Wellenhof.
Kurzfassung/Abstract
Beide Arbeiten sind Teil eines geförderten Projektes zur Erforschung von Hochgebirgspermafrost. Sie greifen ineinander und sind daher in einem Gesamtwerk enthalten. Die Bestimmung des Netzes zur Messung der Blockgletscherdeformation wurde mittels GPS durchgeführt. Die Transformation in das Landessystem mit den umliegenden, nahen Festpunkten machte eine Überprüfung dieser notwendig. Diese Kontrolle wurde ebenfalls mit GPS durchgeführt und beinhaltet insgesamt zehn amtliche Festpunkte. Das Ergebnis der Überprüfung ist sehr zufriedenstellend. Die Klaffungen betragen für das extreme Gebiet im Hochgebirge maximal zehn Zentimeter, für die dem Blockgletscher nahen Festpunkte nur etwa zwei Zentimeter. Für die geforderte Genauigkeit der Arbeit ist dies mehr als ausreichend und daher konnte die Einbindung des Stütznetzes mit den nahen KT-Punkten ohne weiteres erfolgen. Die Punktlagegenauigkeit der Netzbestimmung liegt für alle Punkte (auch extrem abgeschattete) bei ca. 5 Millimeter. Beim Vergleich mit terrestrischen Messungen konnten keine großen Differenzen festgestellt werden. Weiters wurde festgestellt, daß Einflüsse des Geoides in diesem Gebiet nicht gegeben sind. Für weitere Arbeiten am Blockgletscher in bezug auf Klimaforschung wäre hiermit eine ausreichend genaue Grundlage geschaffen. Anzumerken ist noch, daß in diesem Hochgebirgsgebiet sehr oft und sehr lange Schlechtwetter bzw. Nebel vorherrscht, sodaß in diesem Fall, wenn man sich eine zeitliche Verpflichtung der Beobachtungen vorstellt, GPS- Messungen ein sehr gutes Verfahren zur Netzbestimmung sind.
Beide Arbeiten sind Teil eines geförderten Projektes zur Erforschung von Hochgebirgspermafrost. Sie greifen ineinander und sind daher in einem Gesamtwerk enthalten. Die Bestimmung des Netzes zur Messung der Blockgletscherdeformation wurde mittels GPS durchgeführt. Die Transformation in das Landessystem mit den umliegenden, nahen Festpunkten machte eine Überprüfung dieser notwendig. Diese Kontrolle wurde ebenfalls mit GPS durchgeführt und beinhaltet insgesamt zehn amtliche Festpunkte. Das Ergebnis der Überprüfung ist sehr zufriedenstellend. Die Klaffungen betragen für das extreme Gebiet im Hochgebirge maximal zehn Zentimeter, für die dem Blockgletscher nahen Festpunkte nur etwa zwei Zentimeter. Für die geforderte Genauigkeit der Arbeit ist dies mehr als ausreichend und daher konnte die Einbindung des Stütznetzes mit den nahen KT-Punkten ohne weiteres erfolgen. Die Punktlagegenauigkeit der Netzbestimmung liegt für alle Punkte (auch extrem abgeschattete) bei ca. 5 Millimeter. Beim Vergleich mit terrestrischen Messungen konnten keine großen Differenzen festgestellt werden. Weiters wurde festgestellt, daß Einflüsse des Geoides in diesem Gebiet nicht gegeben sind. Für weitere Arbeiten am Blockgletscher in bezug auf Klimaforschung wäre hiermit eine ausreichend genaue Grundlage geschaffen. Anzumerken ist noch, daß in diesem Hochgebirgsgebiet sehr oft und sehr lange Schlechtwetter bzw. Nebel vorherrscht, sodaß in diesem Fall, wenn man sich eine zeitliche Verpflichtung der Beobachtungen vorstellt, GPS- Messungen ein sehr gutes Verfahren zur Netzbestimmung sind.