- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2001
Abschlussarbeiten 2001
Unified Behavior of Vector and Raster Representation
Gutachter im Habilitationsverfahren waren die Professoren Andrew U. Frank (Wien), Michael Worboys (Keele) und Peter Fisher (Leicester). Die Habilitationsschrift ist als Heft 20 in der Schriftenreihe des Instituts für Geoinformation der TU Wien erschienen und kann dort bestellt werden.
Kurzfassung/Abstract
Stephan Winter habilitierte sich am 19. Juni 2001 und erhielt die venia legendi im Fach Geoinformation an der Technischen Universität Wien. Seine Habilitationsschrift Unified Behavior of Vector and Raster Representation stellt seine Arbeiten über konsistentes Verhalten topologischer Operatoren auf verschiedenen Datenrepräsentationen zusammen. Die einzelnen Beiträge behandeln als erstes eine Theorie für hybride Vektor-/Rasterrepräsentationen in GIS, die sich auf topologisches Verhalten stützt. Topologie als Kriterium für zusammengeführte Repräsentationen zu wählen macht Sinn, denn einerseits ist das Verhalten topologischer Operationen in Vektor- und Rasterrepräsentation qualitativ unterschiedlich, andererseits sind die Unterschiede im Verhalten metrischer Operationen eher eine Funktion des Maßstabs (der Rasterauflösung) als der Diskretheit dieser Repräsentation. Eine zweite Gruppe von Beiträgen untersucht daher die Einflüsse des Maßstabs und der Schärfe der Grenzziehung von Objekten auf das Verhalten topologischer Operatoren. Insbesondere wird gezeigt, wie Unsicherheit oder generalisierte Formen von Objekten mit dreiwertiger Logik in den topologischen Operatoren modelliert werden können, was zu unsicheren topologischen Relationen führt. Im dritten Teil der Beiträge wird die experimentelle Methode der übrigen Beiträge genauer betrachtet. Es untersucht die Möglichkeit, einen Interoperabilitätsstandard des OpenGIS-Konsortiums mit algebraischen Methoden in einer funktionalen Programmiersprache zu beschreiben, und vergleicht dies mit üblichen UML-Ansätzen.
Stephan Winter habilitierte sich am 19. Juni 2001 und erhielt die venia legendi im Fach Geoinformation an der Technischen Universität Wien. Seine Habilitationsschrift Unified Behavior of Vector and Raster Representation stellt seine Arbeiten über konsistentes Verhalten topologischer Operatoren auf verschiedenen Datenrepräsentationen zusammen. Die einzelnen Beiträge behandeln als erstes eine Theorie für hybride Vektor-/Rasterrepräsentationen in GIS, die sich auf topologisches Verhalten stützt. Topologie als Kriterium für zusammengeführte Repräsentationen zu wählen macht Sinn, denn einerseits ist das Verhalten topologischer Operationen in Vektor- und Rasterrepräsentation qualitativ unterschiedlich, andererseits sind die Unterschiede im Verhalten metrischer Operationen eher eine Funktion des Maßstabs (der Rasterauflösung) als der Diskretheit dieser Repräsentation. Eine zweite Gruppe von Beiträgen untersucht daher die Einflüsse des Maßstabs und der Schärfe der Grenzziehung von Objekten auf das Verhalten topologischer Operatoren. Insbesondere wird gezeigt, wie Unsicherheit oder generalisierte Formen von Objekten mit dreiwertiger Logik in den topologischen Operatoren modelliert werden können, was zu unsicheren topologischen Relationen führt. Im dritten Teil der Beiträge wird die experimentelle Methode der übrigen Beiträge genauer betrachtet. Es untersucht die Möglichkeit, einen Interoperabilitätsstandard des OpenGIS-Konsortiums mit algebraischen Methoden in einer funktionalen Programmiersprache zu beschreiben, und vergleicht dies mit üblichen UML-Ansätzen.
Objektorientierte Klassifikation der Landnutzung in dichtbesiedelten Gebieten mittels hochauflösender Fernerkundungsdaten
Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien, 2001
Erster Begutachter: o.Univ.Prof. Dr. Kraus; zweiter Begutachter: Mag.Dr.Ao.Univ.Prof. Josef Strobl, Institut für Geographie der Universität Salzburg; Betreuer: o.Univ.Prof. Dr. Kraus und Dipl.-Ing. Dr. Klaus Steinnocher, Forschungszentrum Seibersdorf
Kurzfassung/Abstract
Die Verfügbarkeit der neuen sehr hochauflösenden Satellitendaten wird auf dem Gebiet der Fernerkundung eine Reihe von neuen Anwendungsmöglichkeiten eröffnen. Die hohe räumliche Auflösung ermöglicht Auswertungen in dichtbesiedelten Gebieten, die mit den bisherigen Satellitensystemen nur bedingt möglich waren. Informationen über die aktuelle Landnutzung sind ein wesentlicher Bestandteil der Stadtplanung. Auf Grund des hohen Informationsgehaltes und der Komplexität erfolgt die Auswertung von Bilddaten zur Zeit vorwiegend auf Basis visueller Interpretationen. Hochauflösende Satellitendaten werden in Zukunft eine Alternative zu kleinmaßstäbigen Luftbildern darstellen, um kartographische und geographische Datensätze kostengünstig zu aktualisieren. Um das hohe Informationspotenzial der Daten besser nutzen zu können, müssen neue Auswertemethoden angewendet werden. Das Ziel dieser Arbeit ist, die visuelle Bildinterpretation zu formalisieren, um den Auswerteprozess auf dieses Weise zu automatisieren. Der gewählte Ansatz bedient sich der unterschiedlichen räumlichen Strukturen von Objekten innerhalb von Nutzungseinheiten. Im Zuge der Auswertung kommt ein zweistufiger Prozess zur Anwendung. In einem ersten Schritt werden die Objekte in den Ausgangsdaten extrahiert und klassifiziert. In einem zweiten Schritt werden die morphologischen Eigenschaften der Objekte und die räumlichen Nachbarschaften mit Hilfe des Structural Analysing and Mapping Systems analysiert. Dies führt zu einer Beschreibung und Charakterisierung der einzelnen Landnutzungen. Die daraus gewonnene Information wird für den Aufbau eines Regelwerkes herangezogen, das in der weiteren Folge in die kommerzielle Software eCognition implementiert wird. Durch eine objektorientierte Auswertung wird die Landnutzung aus der vorangegangenen Klassifikation der Bodenbedeckung abgeleitet. Das Potenzial dieser Methode wird mit IKONOS-Daten aus dem Raum Wien anhand eines Fallbeispiels aufgezeigt.
Die Verfügbarkeit der neuen sehr hochauflösenden Satellitendaten wird auf dem Gebiet der Fernerkundung eine Reihe von neuen Anwendungsmöglichkeiten eröffnen. Die hohe räumliche Auflösung ermöglicht Auswertungen in dichtbesiedelten Gebieten, die mit den bisherigen Satellitensystemen nur bedingt möglich waren. Informationen über die aktuelle Landnutzung sind ein wesentlicher Bestandteil der Stadtplanung. Auf Grund des hohen Informationsgehaltes und der Komplexität erfolgt die Auswertung von Bilddaten zur Zeit vorwiegend auf Basis visueller Interpretationen. Hochauflösende Satellitendaten werden in Zukunft eine Alternative zu kleinmaßstäbigen Luftbildern darstellen, um kartographische und geographische Datensätze kostengünstig zu aktualisieren. Um das hohe Informationspotenzial der Daten besser nutzen zu können, müssen neue Auswertemethoden angewendet werden. Das Ziel dieser Arbeit ist, die visuelle Bildinterpretation zu formalisieren, um den Auswerteprozess auf dieses Weise zu automatisieren. Der gewählte Ansatz bedient sich der unterschiedlichen räumlichen Strukturen von Objekten innerhalb von Nutzungseinheiten. Im Zuge der Auswertung kommt ein zweistufiger Prozess zur Anwendung. In einem ersten Schritt werden die Objekte in den Ausgangsdaten extrahiert und klassifiziert. In einem zweiten Schritt werden die morphologischen Eigenschaften der Objekte und die räumlichen Nachbarschaften mit Hilfe des Structural Analysing and Mapping Systems analysiert. Dies führt zu einer Beschreibung und Charakterisierung der einzelnen Landnutzungen. Die daraus gewonnene Information wird für den Aufbau eines Regelwerkes herangezogen, das in der weiteren Folge in die kommerzielle Software eCognition implementiert wird. Durch eine objektorientierte Auswertung wird die Landnutzung aus der vorangegangenen Klassifikation der Bodenbedeckung abgeleitet. Das Potenzial dieser Methode wird mit IKONOS-Daten aus dem Raum Wien anhand eines Fallbeispiels aufgezeigt.
Objektrekonstruktion aus perspektiven Bildern unter Einbeziehung von Umrißlinien
Institut für Photogrammetrie und Fernerkundung der TU Wien, 2001.
Prüfer: Univ.Prof. Dr. Karl Kraus, Institut für Photogrammetrie und Fernerkundung der TU Wien und O.Univ.Prof. Mag.rer.nat. Dr.techn. Helmut Pottmann, Abteilung für Geometrie im Bauwesen und im Scientific Computing, Institut für Geometrie, TU Wien. Betreuer: Ass.Prof. Dipl.-Ing. Dr.techn. Helmut Kager, Institut für Photogrammetrie und Fernerkundung der TU Wien.
Kurzfassung/Abstract
Die Hauptaufgabe der Photogrammetrie ist es, aus analogen oder digitalen Bildern dreidimensionale Objekte - Größe, Form, Lage oder geometrische Abstände - zu rekonstruieren. Dazu werden zunächst aus Photos mit Hilfe von bekannten "Gebilden" die Aufnahmeorte und die Orientierungsparameter bestimmt. In erster Linie wird die Objektrekonstruktion mittels Verknüpfungspunkten - oder auch über kurvenförmige Merkmale - gelöst. In dieser Arbeit hingegen soll die Objektrekonstruktion über Umrißlinien diskutiert werden. Die Einbeziehung von Umrißpunkten bei der Objektrekonstruktion ist dann von Bedeutung, wenn am Objekt nur wenige Punkte gemessen werden können, und das Einmessen eines jeden weiteren Punktes mit erheblichem Mehraufwand verbunden wäre. In der digitalen Photogrammetrie bietet sich an, Umrißlinien automatisch zu detektieren, jedoch müssen diese Linien als Umrisse identifiziert und den entsprechenden Objekten zugeordnet werden. Eine Objektrekonstruktion ausschließlich über Umrißlinien stößt bei Flächen mit Eindellungen an ihre Grenzen, jedoch auch hier liefert sie wertvolle Beiträge. Im ersten Teil der Arbeit wird das mathematische und photogrammetrische Gebäude, das für die Lösung dieser Aufgabe nötig ist, entwickelt; der zweite Teil beschäftigt sich mit der Implementierung in das Programmpaket ORIENT. Abgerundet wird diese Arbeit durch ein Musterbeispiel (Vermessung des Wiener Fernwärmeturms), an dem der Einsatz der entwickelten Theorie ausführlich gezeigt wird.
Die Hauptaufgabe der Photogrammetrie ist es, aus analogen oder digitalen Bildern dreidimensionale Objekte - Größe, Form, Lage oder geometrische Abstände - zu rekonstruieren. Dazu werden zunächst aus Photos mit Hilfe von bekannten "Gebilden" die Aufnahmeorte und die Orientierungsparameter bestimmt. In erster Linie wird die Objektrekonstruktion mittels Verknüpfungspunkten - oder auch über kurvenförmige Merkmale - gelöst. In dieser Arbeit hingegen soll die Objektrekonstruktion über Umrißlinien diskutiert werden. Die Einbeziehung von Umrißpunkten bei der Objektrekonstruktion ist dann von Bedeutung, wenn am Objekt nur wenige Punkte gemessen werden können, und das Einmessen eines jeden weiteren Punktes mit erheblichem Mehraufwand verbunden wäre. In der digitalen Photogrammetrie bietet sich an, Umrißlinien automatisch zu detektieren, jedoch müssen diese Linien als Umrisse identifiziert und den entsprechenden Objekten zugeordnet werden. Eine Objektrekonstruktion ausschließlich über Umrißlinien stößt bei Flächen mit Eindellungen an ihre Grenzen, jedoch auch hier liefert sie wertvolle Beiträge. Im ersten Teil der Arbeit wird das mathematische und photogrammetrische Gebäude, das für die Lösung dieser Aufgabe nötig ist, entwickelt; der zweite Teil beschäftigt sich mit der Implementierung in das Programmpaket ORIENT. Abgerundet wird diese Arbeit durch ein Musterbeispiel (Vermessung des Wiener Fernwärmeturms), an dem der Einsatz der entwickelten Theorie ausführlich gezeigt wird.
Videometric Measurement System for Surface Determination
Fakultät für Technische Naturwissenschaften und Informatik der TU Wien, 2000.
Prüfer: Univ.Prof. Dr. Josef Jansa und Univ.Prof. Dr. Karl Kraus, Institut für Photogrammetrie und Fernerkundung der TU Wien.
Kurzfassung/Abstract
Die effiziente und robuste Bestimmung der dreidimensionalen Form von menschlichen Körperteilen ist immer noch ein wichtiges Problem im medizinischen Bereich. Das Modellieren von Teilen der Oberfläche des menschlichen Körpers wird für die Operationsplanung, für Operationsüberwachung und postoperative Überprüfung gebraucht. In der medizinischen Praxis wurden verschiedene Technologien für dreidimensionale Messungen verwendet. Bekannte Methoden sind CT (Computer Tomographie) und MR (Magnetresonaz-Bilder). Die photogrammetrische Methode ist eine interessante Alternative. Sie verwendet weder schädliche Strahlung, noch benötigt sie teure technische Ausstattung, ist aber auf jene Fälle beschränkt, wo nur die Körperoberfläche gebraucht wird. Die Nachteile der traditionellen Photogrammetrie sind einerseits die lange Zeit zwischen Bilderfassung und fertigem 3D-Modell und andererseits der Bedarf an Fachleuten. In letzter Zeit bietet die digitale Photogrammetrie Möglichkeiten für schnelle, unkomplizierte, billige und trotzdem genaue Messungen. Die Vorteile der digitalen Photogrammetrie ausnützend wurde ein System entwickelt, das Niedrigpreiskomponenten verwendet. Das System besteht aus vier Kameras und zwei Texturprojektoren, die auf einem Rahmen befestigt sind, und einem PC mit Frame-Grabber-Karte. Das System wurde in erster Linie für Untersuchungen des menschlichen Gesichts aufgebaut, wobei zwei Stereopaare mit vertikaler Basis die linke und rechte Gesichtshälfte abdecken. In der Mitte ergibt sich eine kleine Überlappung. Für die Orientierung wurde eine automatische Methode entwickelt, welches ein einfaches Kontrollpunktfeld verwendet und ohne Benutzereingriff läuft. Für die Texturerzeugung auf der Objektoberfläche wurden spezielle Zufallsmuster untersucht. Diese Muster enthalten tief- und hochfrequente Anteile. Erstere sind gut für das Konvergenzverhalten des Matchings und letztere erhöhen die Matching-Genauigkeit. Das verwendete Matching-Verfahren für die Oberflächenbestimmung ist eine intensitätsbasierte, globale Methode, die Christian Öhreneder in seiner Dissertation entwickelt hat (Chr. Öhreneder, A Similarity Measure for Global Image Matching Based on the Forward Modeling Principle. Dissertation an der TU Wien, 1999). Die Genauigkeit des Systems wurde mit verschiedenen Objekten getestet, von geometrisch einfachen Formen bis hin zu ganz komplexen, wie dem Gipsmodell eines menschlichen Gesichts. Die Eignung für die Praxis wurde am lebenden Modell erprobt. Über ein benutzerfreundliches Interface kann das System leicht bedient werden, auch durch Personal, das keine photogrammetrische Erfahrung besitzt. Alle komplizierten Prozesse laufen im Hintergrund ab, wie etwa der Bündelblockausgleich für die Kalibrierung und Orientierung der Kameras oder die Matching-Prozedur. Die mit diesem System erreichbare Genauigkeit liegt sicher innerhalb 1 mm, was der anfangs gestellten Forderung entspricht. Wenn auch nicht in Echtzeit, so kann das dreidimensionale Modell doch in einer für den Mediziner akzeptablen Zeit erhalten werden (ca. 15 min mit PC 100 MHz). Das Ergebnis braucht im allgemeinen keine Nachbearbeitung und kann unmittelbar der Software für Operationsplanung und Überprüfung übergeben werden.
Die effiziente und robuste Bestimmung der dreidimensionalen Form von menschlichen Körperteilen ist immer noch ein wichtiges Problem im medizinischen Bereich. Das Modellieren von Teilen der Oberfläche des menschlichen Körpers wird für die Operationsplanung, für Operationsüberwachung und postoperative Überprüfung gebraucht. In der medizinischen Praxis wurden verschiedene Technologien für dreidimensionale Messungen verwendet. Bekannte Methoden sind CT (Computer Tomographie) und MR (Magnetresonaz-Bilder). Die photogrammetrische Methode ist eine interessante Alternative. Sie verwendet weder schädliche Strahlung, noch benötigt sie teure technische Ausstattung, ist aber auf jene Fälle beschränkt, wo nur die Körperoberfläche gebraucht wird. Die Nachteile der traditionellen Photogrammetrie sind einerseits die lange Zeit zwischen Bilderfassung und fertigem 3D-Modell und andererseits der Bedarf an Fachleuten. In letzter Zeit bietet die digitale Photogrammetrie Möglichkeiten für schnelle, unkomplizierte, billige und trotzdem genaue Messungen. Die Vorteile der digitalen Photogrammetrie ausnützend wurde ein System entwickelt, das Niedrigpreiskomponenten verwendet. Das System besteht aus vier Kameras und zwei Texturprojektoren, die auf einem Rahmen befestigt sind, und einem PC mit Frame-Grabber-Karte. Das System wurde in erster Linie für Untersuchungen des menschlichen Gesichts aufgebaut, wobei zwei Stereopaare mit vertikaler Basis die linke und rechte Gesichtshälfte abdecken. In der Mitte ergibt sich eine kleine Überlappung. Für die Orientierung wurde eine automatische Methode entwickelt, welches ein einfaches Kontrollpunktfeld verwendet und ohne Benutzereingriff läuft. Für die Texturerzeugung auf der Objektoberfläche wurden spezielle Zufallsmuster untersucht. Diese Muster enthalten tief- und hochfrequente Anteile. Erstere sind gut für das Konvergenzverhalten des Matchings und letztere erhöhen die Matching-Genauigkeit. Das verwendete Matching-Verfahren für die Oberflächenbestimmung ist eine intensitätsbasierte, globale Methode, die Christian Öhreneder in seiner Dissertation entwickelt hat (Chr. Öhreneder, A Similarity Measure for Global Image Matching Based on the Forward Modeling Principle. Dissertation an der TU Wien, 1999). Die Genauigkeit des Systems wurde mit verschiedenen Objekten getestet, von geometrisch einfachen Formen bis hin zu ganz komplexen, wie dem Gipsmodell eines menschlichen Gesichts. Die Eignung für die Praxis wurde am lebenden Modell erprobt. Über ein benutzerfreundliches Interface kann das System leicht bedient werden, auch durch Personal, das keine photogrammetrische Erfahrung besitzt. Alle komplizierten Prozesse laufen im Hintergrund ab, wie etwa der Bündelblockausgleich für die Kalibrierung und Orientierung der Kameras oder die Matching-Prozedur. Die mit diesem System erreichbare Genauigkeit liegt sicher innerhalb 1 mm, was der anfangs gestellten Forderung entspricht. Wenn auch nicht in Echtzeit, so kann das dreidimensionale Modell doch in einer für den Mediziner akzeptablen Zeit erhalten werden (ca. 15 min mit PC 100 MHz). Das Ergebnis braucht im allgemeinen keine Nachbearbeitung und kann unmittelbar der Software für Operationsplanung und Überprüfung übergeben werden.
Halbautomatische Gebäudeextraktion durch hybride Ausgleichung unter Einbeziehung von 3D Flächenmodellen sowie die Verwaltung von Gebäudedaten in einem TIS
Fakultät für Technische Naturwissenschaften und Informatik der TU Wien, 2001.
Prüfer: Univ.Prof. Dr. Josef Jansa, Institut für Photogrammetrie und Fernerkundung der TU Wien, und Univ.Prof. Dr. Werner Schneider, Universität für Bodenkultur.
Kurzfassung/Abstract
Halbautomatische Gebäudeextraktion durch hybride Ausgleichung unter Einbeziehung von 3D Flächenmodellen sowie die Verwaltung von Gebäudedaten in einem TIS In dieser Arbeit wird eine neue Methode zur halbautomatischen Gebäudeextraktion ebenso vorgestellt wie ein Konzept für die gemeinsame Speicherung und Verwaltung von Gebäudemodellen, Gelände- und anderen topographischen Daten in einem topographischen Informationssystem (TIS). Die neue Methode zur Gebäudeextraktion basiert auf der Integration der Schätzung von Objektparametern in den photogrammetrischen Auswerteprozeß. Ihre wichtigsten Merkmale umfassen: Anwendung eines hybriden Modellierungsschemas für die Gebäudeextraktion: Es gibt eine Benutzerschnittstelle, die auf dem Prinzip der Constructive Solid Geometry (CSG) basiert. Diese Benutzerschnittstelle erlaubt es, jedes Gebäude zuerst in eine Menge von einfachen Primitiven zu zerlegen, die dann mit Hilfe Boolscher Operatoren kombiniert werden. Die interne Datenstruktur sowohl der Primitive als auch der zusammengesetzten Gebäude basiert auf dem Prinzip der Modellierung durch Begrenzungsflächen (boundary representation). Die Gebäudeprimitive werden in einer Datenbank von häufig auftretenden Gebäudeformen zur Verfügung gestellt. Der Arbeitsablauf zur Rekonstruktion eines einzelnen Primitivs umfaßt vier Schritte:
Auswahl eines Primitivs aus der Datenbank
Interaktive Modifikation der Parameter des Primitivs
Automatische Feinmessung
Visuelle Inspektion und gegebenenfalls interaktive Nachbearbeitung der Parameter des Primitivs.
In allen Phasen dieses Auswerteprozesses übernimmt die Integration von robuster Parameterschätzung und Objektmodellierung eine Schlüsselrolle: Intern werden sowohl das gesamte Gebäude als auch die einzelnen Primitive als Flächenmodelle dargestellt. Die spezifischen Eigenschaften dieser Flächenmodelle ergeben sich unmittelbar aus den Erfordernissen der Parameterschätzung im photogrammetrischen Prozeß. Die Parameter der Gebäudeflächen und die Objektkoordinaten der Gebäudeecken werden simultan durch eine hybride Ausgleichung sowohl von beobachteten Bildkoordinaten als auch von Flächenbeobachtungen bestimmt.
Durch die spezifische Art der Integration der Schätzung der Flächenparameter muß nur eine minimale Anzahl von Parametern für jedes Primitiv verwendet werden, obwohl das sehr allgemeine Konzept der Modellierung durch Begrenzungsflächen angewendet wird. Zusätzlich kann mit Hilfe unserer Modellierungstechnik die Datenbank der Gebäudeprimitive sehr leicht erweitert werden. Die neue Methode ist flexibel genug, um alle Gebäude rekonstruieren zu können, die durch Polyeder beschreibbar sind.
Das Modul für die automatisierte Feinmessung der Gebäudeprimitive stellt ein Beispiel für die Anwendung eines allgemeinen Konzepts zur automatisierten Rekonstruktion von Objektoberflächen dar, das auf der hierarchischen Anwendung von merkmalsbasierten Zuordnungsverfahren im Objektraum basiert. Wiederum wird die Integration des Objektraumes in den Zuordnungsprozeß mit Hilfe der oben beschriebenen Modellierungstechnik auf Basis des Prinzips der Flächenbeobachtungen erreicht. Unter ``Flächenbeobachtung" wird dabei eine Beobachtung der Art verstanden, daß ein Punkt auf einer Fläche im Objektraum liegt, die ihrerseits einer Fläche des zu rekonstruierenden Objektes zugeordnet werden kann.
Sobald ein Gebäude rekonstruiert worden ist, wird es in einem TIS verspeichert. Die Verwaltung von Gebäude-, Gelände- und, falls vorhanden, anderer topographischer Daten beruht auf einem einheitlichen Prinzip, auch wenn unterschiedliche Methoden zur geometrischen Modellierung verwendet werden: die Metadaten werden in einer relationalen Datenbank mit spezifischen Erweiterungen zur Verwaltung topographischer Daten verwaltet. Die tatsächlichen Daten werden in der Datenbank als binäre große Objekte (binary large objects) behandelt. Für den Zugriff auf diese hybriden topographischen Daten z.B. in Visualisierungsprogrammen wurde eine objektorientierte Schnittstelle erstellt.
Die neue Methode ist in die am Institut für Photogrammetrie und Fernerkundung der TU Wien entwickelten Programme integriert, insbesonders in ORPHEUS und ORIENT für die monoskopische interaktive Messung in digitalen Bildern bzw. für die Ausgleichung hybrider Beobachtungen. Die Rolle des TIS wird von SCOP.TDM übernommen.
Diese Arbeit beginnt mit einem Überblick über bestehende Systeme auf dem Gebiet der (voll- und halbautomatischen) Gebäudeextraktion. Danach wird der theoretische Hintergrund der neuen Methode bezüglich der geometrischen Modellierung topographischer Objekte, der Datenverwaltung in TIS und der verwendeten Verfahren zur Parameterschätzung dargestellt. Es folgt eine detaillierte Beschreibung des neuen Verfahrens und aller seiner Komponenten, wobei besonders auf unser allgemeines Konzept zur automatisierten Rekonstruktion von Objektoberflächen Wert gelegt wird, das seinerseits wieder auf bestehenden Arbeiten auf dem Gebiet der Bildzuordnung beruht. Schließlich wird das neue Verfahren an Hand eines Testprojekts im niederösterreichischen Ort Stoitzendorf (Bildmaßstab: 1:4500, Kammerkonstante: 15 cm, 70% Längs- und 50% Querüberdeckung) evaluiert. In diesem Testprojekt, in dem die meisten Gebäude in sechs Bildern sichtbar sind, zeigte sich, daß das automatisierte
Modul bei gut definierten Dachkanten Ergebnisse mit einer Genauigkeit von ±2-5 cm in der Lage und ±5-10 cm in der Höhe gibt. Der Einfluß der wichtigsten Steuerparameter des Verfahrens auf die Ergebnisse wird ebenso untersucht wie die Bedingungen, unter denen es scheitert. Weiters wurden für einen Teil des Ortes alle Gebäude unter Verwendung des hier vorgestellten Verfahrens rekonstruiert, um auf exemplarische Weise seine Anwendbarkeit zu demonstrieren.
Halbautomatische Gebäudeextraktion durch hybride Ausgleichung unter Einbeziehung von 3D Flächenmodellen sowie die Verwaltung von Gebäudedaten in einem TIS In dieser Arbeit wird eine neue Methode zur halbautomatischen Gebäudeextraktion ebenso vorgestellt wie ein Konzept für die gemeinsame Speicherung und Verwaltung von Gebäudemodellen, Gelände- und anderen topographischen Daten in einem topographischen Informationssystem (TIS). Die neue Methode zur Gebäudeextraktion basiert auf der Integration der Schätzung von Objektparametern in den photogrammetrischen Auswerteprozeß. Ihre wichtigsten Merkmale umfassen: Anwendung eines hybriden Modellierungsschemas für die Gebäudeextraktion: Es gibt eine Benutzerschnittstelle, die auf dem Prinzip der Constructive Solid Geometry (CSG) basiert. Diese Benutzerschnittstelle erlaubt es, jedes Gebäude zuerst in eine Menge von einfachen Primitiven zu zerlegen, die dann mit Hilfe Boolscher Operatoren kombiniert werden. Die interne Datenstruktur sowohl der Primitive als auch der zusammengesetzten Gebäude basiert auf dem Prinzip der Modellierung durch Begrenzungsflächen (boundary representation). Die Gebäudeprimitive werden in einer Datenbank von häufig auftretenden Gebäudeformen zur Verfügung gestellt. Der Arbeitsablauf zur Rekonstruktion eines einzelnen Primitivs umfaßt vier Schritte:
Entwicklung einer Software in C++ zur Berechnung von Erdschwerefeldgrößen durch Kollokation
Institut für Theoretische Geodäsie, Abteilung für Physikalische Geodäsie, Graz 2002
Betreuer: Ass.Prof.Dipl.-Ing.Dr.techn. Norbert Kühtreiber
Kurzfassung/Abstract
Eine der Zielsetzungen der physikalischen Geodäsie ist die Bestimmung des Erdschwerefeldes, welches für viele Sparten der Wissenschaft von größter Wichtigkeit ist. Messungen zur Bestimmung diese Feldes (z.B. Schwereanomalien, Lotabweichungen, Geoidhöhen usw.) können nur an diskreten Punkten erfolgen. Durch diese Meßgrößen werden jeweils verschiedene spektrale Anteile des Schwerefeldes repräsentiert. Das mathematische Modell der Kollokation ermöglicht es, diese verschiedenen Beobachtungen zu kombinieren und daraus neue Größen zu berechnen. Diese können sich sowohl vom Typ als auch von der Position von den ursprünglichen Größen unterscheiden und durch die Verknüpfung dieser Daten können auch Genauigkeitsgewinne erzielt werden. Dadurch stellt die Kollokation ein sehr wichtiges Werkzeug für die physikalische Geodäsie (aber auch andere Fachbereiche) dar. Aus diesem Grund beschäftigt sich diese Arbeit mit der Entwicklung einer Kollokations-Software in C++, die es ermöglicht, verschiedene Schwerefeldgrößen (Schwereanomalien, Lotabweichungen und Geoidhöhen) unter einer anwenderfreundlichen Oberfläche zu verarbeiten. Die bei der Kollokation auftretenden Kovarianzfunktionen können durch empirische und analytische Grad-Varianz-Modelle approximiert werden.
Eine der Zielsetzungen der physikalischen Geodäsie ist die Bestimmung des Erdschwerefeldes, welches für viele Sparten der Wissenschaft von größter Wichtigkeit ist. Messungen zur Bestimmung diese Feldes (z.B. Schwereanomalien, Lotabweichungen, Geoidhöhen usw.) können nur an diskreten Punkten erfolgen. Durch diese Meßgrößen werden jeweils verschiedene spektrale Anteile des Schwerefeldes repräsentiert. Das mathematische Modell der Kollokation ermöglicht es, diese verschiedenen Beobachtungen zu kombinieren und daraus neue Größen zu berechnen. Diese können sich sowohl vom Typ als auch von der Position von den ursprünglichen Größen unterscheiden und durch die Verknüpfung dieser Daten können auch Genauigkeitsgewinne erzielt werden. Dadurch stellt die Kollokation ein sehr wichtiges Werkzeug für die physikalische Geodäsie (aber auch andere Fachbereiche) dar. Aus diesem Grund beschäftigt sich diese Arbeit mit der Entwicklung einer Kollokations-Software in C++, die es ermöglicht, verschiedene Schwerefeldgrößen (Schwereanomalien, Lotabweichungen und Geoidhöhen) unter einer anwenderfreundlichen Oberfläche zu verarbeiten. Die bei der Kollokation auftretenden Kovarianzfunktionen können durch empirische und analytische Grad-Varianz-Modelle approximiert werden.
Genauigkeitsuntersuchungen zum Einsatz von Satellitenpositionierungssystemen im Montafon
Institut für Angewandte Geodäsie, Abteilung für Positionierung und Navigation
Betreuer: Univ.Prof.Dipl.-Ing.Dr.techn. Bernhard Hofmann-Wellenhof
Kurzfassung/Abstract
Die Vorarlberger Illwerke AG in Schruns/Vorarlberg will verstärkt GPS für Aufgaben im niedrigen Genauigkeitsbereich (Aufnahmen, Absteckungen etc.) einsetzen. Um dies so rationell wie möglich zu gestalten, soll in Zukunft eine kontinuirlich arbeitende Referenzstation eingesetzt werden. Aufgrund großer Abschattungen im Tal muss diese Station auf einem naheliegenden Berggipfel installiert werden. Wegen der damit verbundenen großen Höhenunterschiede soll geprüft werden, ob und wie GPS - Messungen in diesem Gebiet sinnvoll einzusetzen sind, wie das GPS - System auf äußerliche Einflusse wie Regen, Gewitter, Abschattungen, Basislinienlänge, Beobachtungsdauer etc. reagiert und ob Ergebnisse durch Hinzunahme der russischen GLONASS Satelliten verbessert werden können.
Die Vorarlberger Illwerke AG in Schruns/Vorarlberg will verstärkt GPS für Aufgaben im niedrigen Genauigkeitsbereich (Aufnahmen, Absteckungen etc.) einsetzen. Um dies so rationell wie möglich zu gestalten, soll in Zukunft eine kontinuirlich arbeitende Referenzstation eingesetzt werden. Aufgrund großer Abschattungen im Tal muss diese Station auf einem naheliegenden Berggipfel installiert werden. Wegen der damit verbundenen großen Höhenunterschiede soll geprüft werden, ob und wie GPS - Messungen in diesem Gebiet sinnvoll einzusetzen sind, wie das GPS - System auf äußerliche Einflusse wie Regen, Gewitter, Abschattungen, Basislinienlänge, Beobachtungsdauer etc. reagiert und ob Ergebnisse durch Hinzunahme der russischen GLONASS Satelliten verbessert werden können.
Digitale Modelle aus Laser-Scanner-Daten in städtischen Gebieten
Institut für Photogrammetrie und Fernerkundung, TU Wien, 2000. Begutachter: o.Univ.Prof.Dr. Karl Kraus, Betreuer: Dipl.-Ing. Norbert Pfeifer.
Kurzfassung/Abstract
Die Aufnahmetechnik des Laserscannings hat sich in bewaldeten Gebieten zur Erstellung von digitalen Geländemodellen (DTMs) aufgrund der Automatisierung des Meßablaufes, der teilweise automatischen Auswertung und der erzielten Genauigkeit bewährt. Das Institut für Photogrammetrie und Fernerkundung der technischen Universität Wien hat sich anhand mehrerer Pilotprojekte bereits intensiv mit dieser Meßmethode in unbebauten, mit Vegetation bewachsenen Gebieten befaßt. Für diese Diplomarbeit steht ein Laser-Scanner-Datensatz im Stadtgebiet von Wien (3. Bezirk) zu Verfügung. Einer der Schwerpunkte der Arbeit liegt in der Untersuchung dieses Laser-Scanner-Datensatzes, wobei es notwendig ist, die Charakteristik der Meßmethode zu berücksichtigen. Im Rahmen der Diplomarbeit wird besonders auf die Kombination der eingesetzten Sensoren für die Positionierung, Orientierung und Distanzmessung eingegangen. Kapitel über Methoden der Distanzmessung unter Berücksichtigung der Beleuchtung natürlicher Oberflächen, die Transformation der einzelnen Sensorkoordinatensysteme in das Landeskoordinatensystem und die erzielbaren Genauigkeiten stellen wichtige theoretische Grundlagen dar. Ein weiteres Ziel der Diplomarbeit liegt in der Erstellung und Beurteilung unterschiedlicher digitaler Modelle im Stadtgebiet von Wien. Es wird ein digitales Oberflächenmodell (DSM) aus den vorhandenen Datensätzen (Raster- und "Rohdaten") berechnet. Für die Erstellung eines Bodenmodells wird die im Programmsystem SCOP implementierte Methode zur Filterung und Klassifizierung von Laser-Scanner-Daten durch einen hierarchisch arbeitenden Ansatz erweitert. Mit Hilfe dieser hierarchischen Methode kann ein Geländemodell im dicht verbauten Gebiet berechnet werden. Zur Visualisierung dieser Modelle werden unterschiedliche Möglichkeiten genutzt. Weiters werden Methoden zur Detektion von Kantenpixeln aus Laser-Scanner-Daten vorgestellt, wobei die Ergebnisse für den vorhandenen Datensatz im Stadtgebiet beurteilt werden. Die praktische Berechnung des DTMs im Stadtgebiet von Wien wird durch terrestrisch bestimmte Höhenkontrollpunkte überprüft. Die in unterschiedlichen Gebieten erzielten Genauigkeiten werden interpretiert. Die Standardabweichung mit allen 816 Kontrollpunkten beträgt ±7.1cm. Im Straßenbereich erreicht das DTM sogar eine Genauigkeit von ±1.0cm. Den Abschluß der Arbeit bildet ein kurzer Ausblick auf die Möglichkeiten der Erstellung eines 3D-Stadtmodells aus Laser-Scanner-Daten.
Die Aufnahmetechnik des Laserscannings hat sich in bewaldeten Gebieten zur Erstellung von digitalen Geländemodellen (DTMs) aufgrund der Automatisierung des Meßablaufes, der teilweise automatischen Auswertung und der erzielten Genauigkeit bewährt. Das Institut für Photogrammetrie und Fernerkundung der technischen Universität Wien hat sich anhand mehrerer Pilotprojekte bereits intensiv mit dieser Meßmethode in unbebauten, mit Vegetation bewachsenen Gebieten befaßt. Für diese Diplomarbeit steht ein Laser-Scanner-Datensatz im Stadtgebiet von Wien (3. Bezirk) zu Verfügung. Einer der Schwerpunkte der Arbeit liegt in der Untersuchung dieses Laser-Scanner-Datensatzes, wobei es notwendig ist, die Charakteristik der Meßmethode zu berücksichtigen. Im Rahmen der Diplomarbeit wird besonders auf die Kombination der eingesetzten Sensoren für die Positionierung, Orientierung und Distanzmessung eingegangen. Kapitel über Methoden der Distanzmessung unter Berücksichtigung der Beleuchtung natürlicher Oberflächen, die Transformation der einzelnen Sensorkoordinatensysteme in das Landeskoordinatensystem und die erzielbaren Genauigkeiten stellen wichtige theoretische Grundlagen dar. Ein weiteres Ziel der Diplomarbeit liegt in der Erstellung und Beurteilung unterschiedlicher digitaler Modelle im Stadtgebiet von Wien. Es wird ein digitales Oberflächenmodell (DSM) aus den vorhandenen Datensätzen (Raster- und "Rohdaten") berechnet. Für die Erstellung eines Bodenmodells wird die im Programmsystem SCOP implementierte Methode zur Filterung und Klassifizierung von Laser-Scanner-Daten durch einen hierarchisch arbeitenden Ansatz erweitert. Mit Hilfe dieser hierarchischen Methode kann ein Geländemodell im dicht verbauten Gebiet berechnet werden. Zur Visualisierung dieser Modelle werden unterschiedliche Möglichkeiten genutzt. Weiters werden Methoden zur Detektion von Kantenpixeln aus Laser-Scanner-Daten vorgestellt, wobei die Ergebnisse für den vorhandenen Datensatz im Stadtgebiet beurteilt werden. Die praktische Berechnung des DTMs im Stadtgebiet von Wien wird durch terrestrisch bestimmte Höhenkontrollpunkte überprüft. Die in unterschiedlichen Gebieten erzielten Genauigkeiten werden interpretiert. Die Standardabweichung mit allen 816 Kontrollpunkten beträgt ±7.1cm. Im Straßenbereich erreicht das DTM sogar eine Genauigkeit von ±1.0cm. Den Abschluß der Arbeit bildet ein kurzer Ausblick auf die Möglichkeiten der Erstellung eines 3D-Stadtmodells aus Laser-Scanner-Daten.
Einrichtung und Aufbau eines Deponie-Informationssystems
Institut für Photogrammetrie und Fernerkundung, TU Wien, 2000. Begutachter: o.Univ.Prof.Dr. Karl Kraus, Betreuer: Dipl.-Ing. Gottfried Mandlburger.
Kurzfassung/Abstract
Auf Grund einer Verordnung des Abfallwirtschaftsgesetzes müssen ab 1. Jänner 1997 Neuanlagen zur Ablagerung von Abfällen eine dem Stand der Technik entsprechende Ausstattung besitzen. Die schrittweise Anpassung bestehender Altanlagen soll, einer Novelle des Wasserrechtsgesetzes folgend, längstens bis zum Jahr 2004 abgeschlossen sein. Als Anreiz für eine raschere Anpassung der Altanlagen an die geforderte Ausstattung erfolgte eine Novelle des Altlastensanierungsgesetzes, welche ab 1997 und in den Folgejahren zum Teil drastische Erhöhungen des Altlastenbeitrages für das Deponieren von Abfällen auf unzureichend ausgestatteten Deponien vorsieht. Die zuständigen Hauptzollämter haben die Aufgabe, die von den Betreibern abgelieferten Beiträge, deren Höhe auf der Grundlage der Selbstbemessung festgelegt wird, zu kontrollieren. Das Bundesministerium für Umwelt, Jugend und Familie (BMUJF), welches für die zweckgebundene Verwendung der Beiträge zuständig ist, wendete sich an das Institut für Photogrammetrie und Fernerkundung (IPF) der TU-Wien, um ein geeignetes Kontrollwerkzeug, basierend auf Luftbildvermessungen, zu entwickeln. Mit Hilfe photogrammetrischer Methoden können Volumina und deren zeitliche Veränderungen aus Luftbildern bestimmt werden. Die notwendigen Berechnungen werden mit dem Programmsystem SCOP, einer vom Institut für Photogrammetrie und Fernerkundung (IPF) gemeinsam mit der INPHO, Stuttgart, entwickelten Software, durchgeführt. Die notwendigen Arbeitsabläufe und Berechnungen werden im Rahmen der Diplomarbeit erläutert. Ziel der Diplomarbeit ist die Entwicklung eines Informationssystems zur Verwaltung und schnellen Handhabung der für die Kontrollzwecke wesentlichen Daten. Dabei ist es nicht notwendig, den Benutzern in den Hauptzollämtern alle Daten zur Verfügung zu stellen. Daher werden die komplexen topographischen Datensätze wie photogrammetrische Auswertungen, Geländemodelle und Differenzenmodelle in dem topographiefähigen, relationalen Datenbanksystem SCOP.TDM (Topographic Data Management) verwaltet und vom IPF gewartet. Die zur Kontrolle der Beitragszahlungen notwendigen Daten wie Volumendifferenzen, zugehörige Flächen und Sachdaten bezüglich der Deponien und Betreiber werden in einer kommerziellen Microsoft Access Datenbank abgelegt und durch eine eigens entwickelte Abfrageumgebung zugänglich gemacht. Diese basiert auf der Client/Server-Architektur und ermöglicht den Zugriff auf die Datenbank via Netzwerk mit Hilfe von Internet-Technologien. Dadurch stehen die Daten für Mitarbeiter verschiedener Dienststellen gleichzeitig an verschiedenen Orten zur Verfügung. Weiters ermöglicht die Abfrageumgebung eine Verknüpfung der verwalteten Daten mit zugehörigen topographischen Grundlagen wie digitalen Orthophotos sowie deren gemeinsame graphische Ausgabe auf Bildschirm und Drucker. Zur Gewährleistung der Qualität der Daten werden Zusatzinformationen verwaltet. Häufig benötigte Daten werden durch formalisierte Abfragen zugänglich gemacht. Komplexe SQL-Anweisungen können ebenfalls formuliert und an die Datenbank übermittelt werden. Die erste Kontrollkampagne, welche als Testdatensatz zur Entwicklung des Systems zur Verfügung stand, ist abgeschlossen und die photogrammetrisch ermittelten Zahlen wurden mit jenen der Hauptzollämter verglichen. Es hat sich herausgestellt, daß der gewählte Arbeitsablauf praxisgerecht ist, und die erzielten Werte großes Vertrauen genießen. Die geordnete Verwaltung der Daten im Deponie-Informationssystem ermöglicht einen raschen Zugriff auf die relevanten Informationen. Grundlagen für zukünftige Flugplanungen und Berechnungen stehen ebenfalls schnell zur Verfügung, wodurch der Arbeitsablauf beschleunigt werden kann.
Auf Grund einer Verordnung des Abfallwirtschaftsgesetzes müssen ab 1. Jänner 1997 Neuanlagen zur Ablagerung von Abfällen eine dem Stand der Technik entsprechende Ausstattung besitzen. Die schrittweise Anpassung bestehender Altanlagen soll, einer Novelle des Wasserrechtsgesetzes folgend, längstens bis zum Jahr 2004 abgeschlossen sein. Als Anreiz für eine raschere Anpassung der Altanlagen an die geforderte Ausstattung erfolgte eine Novelle des Altlastensanierungsgesetzes, welche ab 1997 und in den Folgejahren zum Teil drastische Erhöhungen des Altlastenbeitrages für das Deponieren von Abfällen auf unzureichend ausgestatteten Deponien vorsieht. Die zuständigen Hauptzollämter haben die Aufgabe, die von den Betreibern abgelieferten Beiträge, deren Höhe auf der Grundlage der Selbstbemessung festgelegt wird, zu kontrollieren. Das Bundesministerium für Umwelt, Jugend und Familie (BMUJF), welches für die zweckgebundene Verwendung der Beiträge zuständig ist, wendete sich an das Institut für Photogrammetrie und Fernerkundung (IPF) der TU-Wien, um ein geeignetes Kontrollwerkzeug, basierend auf Luftbildvermessungen, zu entwickeln. Mit Hilfe photogrammetrischer Methoden können Volumina und deren zeitliche Veränderungen aus Luftbildern bestimmt werden. Die notwendigen Berechnungen werden mit dem Programmsystem SCOP, einer vom Institut für Photogrammetrie und Fernerkundung (IPF) gemeinsam mit der INPHO, Stuttgart, entwickelten Software, durchgeführt. Die notwendigen Arbeitsabläufe und Berechnungen werden im Rahmen der Diplomarbeit erläutert. Ziel der Diplomarbeit ist die Entwicklung eines Informationssystems zur Verwaltung und schnellen Handhabung der für die Kontrollzwecke wesentlichen Daten. Dabei ist es nicht notwendig, den Benutzern in den Hauptzollämtern alle Daten zur Verfügung zu stellen. Daher werden die komplexen topographischen Datensätze wie photogrammetrische Auswertungen, Geländemodelle und Differenzenmodelle in dem topographiefähigen, relationalen Datenbanksystem SCOP.TDM (Topographic Data Management) verwaltet und vom IPF gewartet. Die zur Kontrolle der Beitragszahlungen notwendigen Daten wie Volumendifferenzen, zugehörige Flächen und Sachdaten bezüglich der Deponien und Betreiber werden in einer kommerziellen Microsoft Access Datenbank abgelegt und durch eine eigens entwickelte Abfrageumgebung zugänglich gemacht. Diese basiert auf der Client/Server-Architektur und ermöglicht den Zugriff auf die Datenbank via Netzwerk mit Hilfe von Internet-Technologien. Dadurch stehen die Daten für Mitarbeiter verschiedener Dienststellen gleichzeitig an verschiedenen Orten zur Verfügung. Weiters ermöglicht die Abfrageumgebung eine Verknüpfung der verwalteten Daten mit zugehörigen topographischen Grundlagen wie digitalen Orthophotos sowie deren gemeinsame graphische Ausgabe auf Bildschirm und Drucker. Zur Gewährleistung der Qualität der Daten werden Zusatzinformationen verwaltet. Häufig benötigte Daten werden durch formalisierte Abfragen zugänglich gemacht. Komplexe SQL-Anweisungen können ebenfalls formuliert und an die Datenbank übermittelt werden. Die erste Kontrollkampagne, welche als Testdatensatz zur Entwicklung des Systems zur Verfügung stand, ist abgeschlossen und die photogrammetrisch ermittelten Zahlen wurden mit jenen der Hauptzollämter verglichen. Es hat sich herausgestellt, daß der gewählte Arbeitsablauf praxisgerecht ist, und die erzielten Werte großes Vertrauen genießen. Die geordnete Verwaltung der Daten im Deponie-Informationssystem ermöglicht einen raschen Zugriff auf die relevanten Informationen. Grundlagen für zukünftige Flugplanungen und Berechnungen stehen ebenfalls schnell zur Verfügung, wodurch der Arbeitsablauf beschleunigt werden kann.
Materialanalyse an Bauwerksfassaden mittels Klassifikation in Digitalbildern
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung der TU Graz, 2001. Betreuer: o.Univ.Prof. Dipl.-Ing. Dr.techn. Gerhard Brandstätter.
Kurzfassung/Abstract
In der vorliegenden Arbeit soll der Prozess der Identifizierung von auftretenden Materialien und Schäden an historischen Gebäuden mittels Methoden der digitalen Bildverarbeitung sowie der Mustererkennung automatisiert und eine lückenlose Information über Gebäudefassaden erstellt werden. Die dafür notwendigen Bilder wurden mit einer analogen Kamera unter Verwendung eines speziellen Infrarotfilms und einer digitalen Kamera aufgenommen. An beide Kameras wurden zur Beschaffung spezieller Bildinformationen unterschiedliche Filter am Objektiv angebracht. Die Bilder repräsentieren somit ein und denselben Fassadenteil sowohl im sichtbaren elektromagnetischen Spektrum als auch im nahen Infrarot. Die Untersuchungen wurden mittels verschiedener Klassifizierungsarten, der spektralen Klassifizierung, der texturalen Klassifizierung und einer Kombination der beiden, durchgeführt. Im Rahmen der Arbeit konnte festgestellt werden, dass eine spektrale Klassifizierung unter Miteinbeziehen einiger Elemente der texturalen Klassifizierung das beste Ergebnis lieferte.
In der vorliegenden Arbeit soll der Prozess der Identifizierung von auftretenden Materialien und Schäden an historischen Gebäuden mittels Methoden der digitalen Bildverarbeitung sowie der Mustererkennung automatisiert und eine lückenlose Information über Gebäudefassaden erstellt werden. Die dafür notwendigen Bilder wurden mit einer analogen Kamera unter Verwendung eines speziellen Infrarotfilms und einer digitalen Kamera aufgenommen. An beide Kameras wurden zur Beschaffung spezieller Bildinformationen unterschiedliche Filter am Objektiv angebracht. Die Bilder repräsentieren somit ein und denselben Fassadenteil sowohl im sichtbaren elektromagnetischen Spektrum als auch im nahen Infrarot. Die Untersuchungen wurden mittels verschiedener Klassifizierungsarten, der spektralen Klassifizierung, der texturalen Klassifizierung und einer Kombination der beiden, durchgeführt. Im Rahmen der Arbeit konnte festgestellt werden, dass eine spektrale Klassifizierung unter Miteinbeziehen einiger Elemente der texturalen Klassifizierung das beste Ergebnis lieferte.
Ein Geländemodell aus Laser-Scanner-Daten als Grundlage eines Informationssystems für den Nationalpark Neusiedler See-Seewinkel
Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien, 2001
Begutachter: o.Univ.Prof. Dr. Karl Kraus, Betreuer: Ass.Prof. Dipl.-Ing. Dr.techn. Helmut Kager
Kurzfassung/Abstract
Die Landschaft des Nationalparks Neusiedler See-Seewinkel erfuhr im letzten Jahrhundert starke, durch menschliche Eingriffe verursachte Veränderungen infolge der Intensivierung der Landwirtschaft und der künstlichen Trockenlegung vieler Feuchtgebiete. Von den ursprünglich über 100 Lacken um 1900 wurde ein Großteil trockengelegt. Der Schutz des heutigen Lackenbestands, aber auch die Rekonstruktion verloren gegangener Lebensräume für zahlreiche Tier- und Pflanzenarten stellen wichtige Aufgaben der Nationalparkverwaltung dar. Ein Nationalpark-Informationssystem (NPIS) soll diese Management- und Planungsaufgaben des Nationalparks unterstützen. Die räumliche Grundlage des NPIS bildet - neben digitalen Orthophotos und digitaler Katastralmappe sowie georeferenzierten historischen Karten - ein digitales Geländemodell, welches mit Hilfe der neuen Technologie des flugzeuggetragenen Laser-Scannings erstellt wurde. Mit der Visualisierung dieses hochgenauen Geländemodells ist es möglich, die für den Nationalpark typischen, sehr flachen, natürlichen Senken nachzuweisen und in Beziehung zu den anderen Geo-Basis-Daten zu bringen. Die aus der Abtastung der Erdoberfläche mittels Laser entstehenden Daten weisen aufgrund systematischer Fehler der verwendeten Orientierungssysteme (GPS, INS) Höhendiskrepanzen zwischen überlappenden Laser-Scanner-Streifen auf. Die weitgehende Elimination dieser Höhenunterschiede durch Blockausgleichung mit unabhängigen Modellen und zusätzlichen Parametern ist sowohl zur Vermeidung von Versetzungen im Geländemodell als auch für die Klassifizierung der Laser-Scanner-Punkte als Boden- und Vegetationspunkte von Bedeutung. Durch die Ausgleichung konnte die Homogenität zwischen benachbarten Streifen bedeutend verbessert werden. Die mittleren Höhendiskrepanzen vor der Ausgleichung betrugen ± 4,6 cm, nach der Ausgleichung nur noch ± 1,8 cm. Aus der Untersuchung verschiedener Passpunktkonfigurationen ging hervor, dass der Block schon bei einer Anordnung von einigen Passpunkten in den Blockecken ausreichend stabilisiert wird.
Die Landschaft des Nationalparks Neusiedler See-Seewinkel erfuhr im letzten Jahrhundert starke, durch menschliche Eingriffe verursachte Veränderungen infolge der Intensivierung der Landwirtschaft und der künstlichen Trockenlegung vieler Feuchtgebiete. Von den ursprünglich über 100 Lacken um 1900 wurde ein Großteil trockengelegt. Der Schutz des heutigen Lackenbestands, aber auch die Rekonstruktion verloren gegangener Lebensräume für zahlreiche Tier- und Pflanzenarten stellen wichtige Aufgaben der Nationalparkverwaltung dar. Ein Nationalpark-Informationssystem (NPIS) soll diese Management- und Planungsaufgaben des Nationalparks unterstützen. Die räumliche Grundlage des NPIS bildet - neben digitalen Orthophotos und digitaler Katastralmappe sowie georeferenzierten historischen Karten - ein digitales Geländemodell, welches mit Hilfe der neuen Technologie des flugzeuggetragenen Laser-Scannings erstellt wurde. Mit der Visualisierung dieses hochgenauen Geländemodells ist es möglich, die für den Nationalpark typischen, sehr flachen, natürlichen Senken nachzuweisen und in Beziehung zu den anderen Geo-Basis-Daten zu bringen. Die aus der Abtastung der Erdoberfläche mittels Laser entstehenden Daten weisen aufgrund systematischer Fehler der verwendeten Orientierungssysteme (GPS, INS) Höhendiskrepanzen zwischen überlappenden Laser-Scanner-Streifen auf. Die weitgehende Elimination dieser Höhenunterschiede durch Blockausgleichung mit unabhängigen Modellen und zusätzlichen Parametern ist sowohl zur Vermeidung von Versetzungen im Geländemodell als auch für die Klassifizierung der Laser-Scanner-Punkte als Boden- und Vegetationspunkte von Bedeutung. Durch die Ausgleichung konnte die Homogenität zwischen benachbarten Streifen bedeutend verbessert werden. Die mittleren Höhendiskrepanzen vor der Ausgleichung betrugen ± 4,6 cm, nach der Ausgleichung nur noch ± 1,8 cm. Aus der Untersuchung verschiedener Passpunktkonfigurationen ging hervor, dass der Block schon bei einer Anordnung von einigen Passpunkten in den Blockecken ausreichend stabilisiert wird.
Vergleich der Auswertemethoden von Naturbestandsaufnahmen
Institut für Geodäsie und Geophysik, Abteilung für Angewandte Geodäsie und Ingenieurgeodäsie, TU Wien, 2000. Begutachter: o.Univ.Prof.Dr.-Ing. Heribert Kahmen, Betreuer: Vertr.-Ass. Dipl.-Ing. Dr. Johannes Fabiankowitsch.
Kurzfassung/Abstract
Im Jahr 1998 wurde an der Abteilung "Angewandte Geodäsie und Ingenieurgeodäsie" eines der modernsten Systemtachymeter, nämlich das Zeiss Elta S 10 angeschafft. Dieses Instrument soll für codierte Aufnahmen und vor allem mit dem graphischen Feldinformationssystem Map500 (ebenfalls von der Firma Zeiss) eingesetzt werden. Um Erfahrungen mit dem neuen Theodolit, der codierten Aufnahme samt automatischem Hochzeichnen und dem Feldinformationssystem zu sammeln, wurden zwei Diplomarbeiten ausgeschrieben. Im Rahmen dieser Diplomarbeit soll eine codierte Aufnahme mit einer konventionellen Methode verglichen werden. In einem ausgewählten Testgebiet werden die Unterschiede beider Methoden bezüglich der Feldarbeiten möglichst praxisnah untersucht. Im Anschluss daran erfolgt die Bearbeitung der erfassten Daten im Büro. Hierfür steht ein Softwarepaket der Firma rmDATA zur Verfügung. Dieses besteht aus dem Geodäsieprogramm rm-GEO, dem CAD- Programm rm-MAP sowie den für den automatischen Datenfluss notwendigen Schnittstellen. Ein weiterer Teil dieser Diplomarbeit beschäftigt sich mit der Verdichtung des Festpunktfeldes. Es werden verschiedene Methoden einander gegenübergestellt. Einerseits ist das die klassische Punktverdichtung durch Polygonzüge sowie die Schaffung von Punkten durch "Freie Stationierung". Diese terrestrischen Methoden werden mit dem Zeiss Tachymeter durchgeführt. Als zweite Methode wird die moderne Punktbestimmung mit RTK-GPS angewendet. Die Transformationsparameter (Voraussetzung für eine Echtzeitanwendung) sind die bei der Festpunktfeldbestimmung errechneten. Die dafür notwendigen Messungen werden mit dem Leica GPS-System SR530 vorgenommen. In beiden Teilbereichen der Diplomarbeit wird großes Augenmerk auf die Wirtschaftlichkeit und Produktivität gelegt.
Im Jahr 1998 wurde an der Abteilung "Angewandte Geodäsie und Ingenieurgeodäsie" eines der modernsten Systemtachymeter, nämlich das Zeiss Elta S 10 angeschafft. Dieses Instrument soll für codierte Aufnahmen und vor allem mit dem graphischen Feldinformationssystem Map500 (ebenfalls von der Firma Zeiss) eingesetzt werden. Um Erfahrungen mit dem neuen Theodolit, der codierten Aufnahme samt automatischem Hochzeichnen und dem Feldinformationssystem zu sammeln, wurden zwei Diplomarbeiten ausgeschrieben. Im Rahmen dieser Diplomarbeit soll eine codierte Aufnahme mit einer konventionellen Methode verglichen werden. In einem ausgewählten Testgebiet werden die Unterschiede beider Methoden bezüglich der Feldarbeiten möglichst praxisnah untersucht. Im Anschluss daran erfolgt die Bearbeitung der erfassten Daten im Büro. Hierfür steht ein Softwarepaket der Firma rmDATA zur Verfügung. Dieses besteht aus dem Geodäsieprogramm rm-GEO, dem CAD- Programm rm-MAP sowie den für den automatischen Datenfluss notwendigen Schnittstellen. Ein weiterer Teil dieser Diplomarbeit beschäftigt sich mit der Verdichtung des Festpunktfeldes. Es werden verschiedene Methoden einander gegenübergestellt. Einerseits ist das die klassische Punktverdichtung durch Polygonzüge sowie die Schaffung von Punkten durch "Freie Stationierung". Diese terrestrischen Methoden werden mit dem Zeiss Tachymeter durchgeführt. Als zweite Methode wird die moderne Punktbestimmung mit RTK-GPS angewendet. Die Transformationsparameter (Voraussetzung für eine Echtzeitanwendung) sind die bei der Festpunktfeldbestimmung errechneten. Die dafür notwendigen Messungen werden mit dem Leica GPS-System SR530 vorgenommen. In beiden Teilbereichen der Diplomarbeit wird großes Augenmerk auf die Wirtschaftlichkeit und Produktivität gelegt.
Kartographische Modellierung von GDF-Daten in Smallworld GIS
Institut für Theoretische Geodäsie, Abteilung Mathematische Geodäsie und Geoinformatik, 2001. Betreuer: Ao. Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Das gestiegene Kommunikationsbedürfnis der Menschen und der Kampf um wirtschaftliche Wettbewerbsvorteile erfordern den zunehmenden Einsatz digitaler Werkzeuge bei der Bewältigung räumlicher Dimensionen. Zeit und Geschwindigkeit sind wichtige Qualitätskriterien einer Dienstleistung. Aus diesen Gründen ist die Nachfrage nach intelligenten Verkehrsleitsystemen in den letzten Jahren stark steigend. Seit den späten achtziger Jahren beschäftigt man sich an der Abteilung für Mathematische Geodäsie und Geoinformatik (MGGI) der TU Graz mit der Entwicklung eines Automobilinformationssystems (AIS). Das AIS Graz enthält das Straßen- und Wegenetz von Graz und die mit diesem in Beziehung stehenden Daten. Straßennetz-Routenfindung und Leitempfehlungen bedürfen einer Datenstruktur, die in erster Linie die Funktion und nicht die territoriale Ausprägung der Straße geometrisch und attributiv beschreibt. GDF-Datensätze (Graphic Data Files) beinhalten die anwendungsorientierte Geometrie (Knoten-Link-Topologie), straßenverkehrsrelevante Attribute und die Beziehungen (Relationen) von Geometrie und Attributen zueinander. Die Idee zu dieser Arbeit entstand aus dem Bedürfnis der gesamten Datenstruktur, die auf Kanten-Knoten aufbaut, ein modernes kartographisches Bild zu verleihen. Es werden Überlegungen zur Visualisierung von GDF-Daten angestellt, das Smallworld Style-System durchleuchtet und die kartographische Modellierung im AIS Graz beschrieben.
Das gestiegene Kommunikationsbedürfnis der Menschen und der Kampf um wirtschaftliche Wettbewerbsvorteile erfordern den zunehmenden Einsatz digitaler Werkzeuge bei der Bewältigung räumlicher Dimensionen. Zeit und Geschwindigkeit sind wichtige Qualitätskriterien einer Dienstleistung. Aus diesen Gründen ist die Nachfrage nach intelligenten Verkehrsleitsystemen in den letzten Jahren stark steigend. Seit den späten achtziger Jahren beschäftigt man sich an der Abteilung für Mathematische Geodäsie und Geoinformatik (MGGI) der TU Graz mit der Entwicklung eines Automobilinformationssystems (AIS). Das AIS Graz enthält das Straßen- und Wegenetz von Graz und die mit diesem in Beziehung stehenden Daten. Straßennetz-Routenfindung und Leitempfehlungen bedürfen einer Datenstruktur, die in erster Linie die Funktion und nicht die territoriale Ausprägung der Straße geometrisch und attributiv beschreibt. GDF-Datensätze (Graphic Data Files) beinhalten die anwendungsorientierte Geometrie (Knoten-Link-Topologie), straßenverkehrsrelevante Attribute und die Beziehungen (Relationen) von Geometrie und Attributen zueinander. Die Idee zu dieser Arbeit entstand aus dem Bedürfnis der gesamten Datenstruktur, die auf Kanten-Knoten aufbaut, ein modernes kartographisches Bild zu verleihen. Es werden Überlegungen zur Visualisierung von GDF-Daten angestellt, das Smallworld Style-System durchleuchtet und die kartographische Modellierung im AIS Graz beschrieben.
Anwendungen des Lumped Coefficients Approach für ausgewählte Probleme in Satellite Gravity Gradiometry
Institut für Theoretische Geodäsie Abteilung für Mathematische Geodäsie und Geoinformatik, 2001. Betreuer: o.Univ.Prof.Dipl.-Ing.Dr.techn. Hans Sünkel
Kurzfassung/Abstract
Die Gravity Field and Ocean Circulation Explorer (GOCE) Mission ist eine dem Schwerefeld der Erde gewidmete Satellitenmission der European Space Agency (ESA) mit geplantem Start Sommer 2004. Gängige mathematische Modelle zur Darstellung des Erdschwerefelds basieren auf einer Reihenentwicklung von Kugelfunktionen und führen zu einer hohen Anzahl von unbekannten Kugelfunktionskoeffizienten und großen Gleichungssystemen. Eine Methode, um solche Gleichungssysteme auszuwerten bietet der Ansatz der lumped coefficients, wobei die Beobachtungen als Zeitreihe entlang der Satellitenbahn betrachtet werden. In der Diplomarbeit wird der lumped coefficients Ansatz verwendet, um die Abbildung der Frequenzdarstellung der Zeitreihe auf die Kugelfunktionskoeffizienten zu untersuchen. Es wird gezeigt, dass es möglich ist, bei bekannter Frequenz eines beliebigen, gemessenen Signals vorherzusagen, welche Koeffizienten beeinflusst werden. Weiters wird dargelegt, dass spectral leakage, aliasing und windowing im Ortsbereich zusammenspielen und einen Einfluss auf das Ergebnis haben können. Es wird bewiesen, dass bei bekannter Bahnkonfiguration und Beobachtungsrate, sowohl der Beitrag der Kugelfunktionskoeffizienten im Frequenzspektrum geortet, als auch die Amplituden selbst bestimmt werden können. Besondere Probleme von Satellite Gravity Gradiometry (SGG), wie farbiges Rauschverhalten des Gradiometers werden simuliert und analysiert. Verschiedene Filterfunktionen werden angewendet und deren Einfluss auf die Fehlerschätzung wird erläutert. Für die graphische Darstellung der Ergebnisse wurde ein MATLAB Programm erstellt, genannt SPHERAN (SPHERical harmonic ANalysis of satellite gravity gradiometry data), welches in der Diplomarbeit vorgestellt wird.
Die Gravity Field and Ocean Circulation Explorer (GOCE) Mission ist eine dem Schwerefeld der Erde gewidmete Satellitenmission der European Space Agency (ESA) mit geplantem Start Sommer 2004. Gängige mathematische Modelle zur Darstellung des Erdschwerefelds basieren auf einer Reihenentwicklung von Kugelfunktionen und führen zu einer hohen Anzahl von unbekannten Kugelfunktionskoeffizienten und großen Gleichungssystemen. Eine Methode, um solche Gleichungssysteme auszuwerten bietet der Ansatz der lumped coefficients, wobei die Beobachtungen als Zeitreihe entlang der Satellitenbahn betrachtet werden. In der Diplomarbeit wird der lumped coefficients Ansatz verwendet, um die Abbildung der Frequenzdarstellung der Zeitreihe auf die Kugelfunktionskoeffizienten zu untersuchen. Es wird gezeigt, dass es möglich ist, bei bekannter Frequenz eines beliebigen, gemessenen Signals vorherzusagen, welche Koeffizienten beeinflusst werden. Weiters wird dargelegt, dass spectral leakage, aliasing und windowing im Ortsbereich zusammenspielen und einen Einfluss auf das Ergebnis haben können. Es wird bewiesen, dass bei bekannter Bahnkonfiguration und Beobachtungsrate, sowohl der Beitrag der Kugelfunktionskoeffizienten im Frequenzspektrum geortet, als auch die Amplituden selbst bestimmt werden können. Besondere Probleme von Satellite Gravity Gradiometry (SGG), wie farbiges Rauschverhalten des Gradiometers werden simuliert und analysiert. Verschiedene Filterfunktionen werden angewendet und deren Einfluss auf die Fehlerschätzung wird erläutert. Für die graphische Darstellung der Ergebnisse wurde ein MATLAB Programm erstellt, genannt SPHERAN (SPHERical harmonic ANalysis of satellite gravity gradiometry data), welches in der Diplomarbeit vorgestellt wird.
Simulation von SST-Beobachtungen mittels numerischer Integration der Hill-Gleichungen
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik
Betreuer: Univ.Prof.Dipl.-Ing.Dr.techn. Wolf-Dieter Schuh
Kurzfassung/Abstract
Moderne Erdschwerefeld-Missionen beruhen auf zwei sehr unterschiedlichen Konzepten der Satellitengeodäsie: Während die Satellitengradiometrie die Bestimmung der mittleren und höheren Frequenzen ermöglicht, liefert die drei-dimensionale Erfassung der Bahnstörungen niedrigfliegender Satelliten mit Hilfe von Navigationssatelliten (engl. satellite-to-satellite tracking, SST) Informationen über die niederfrequenten Anteile des Schwerefeldes. Diese Arbeit beschäftigt sich mit der Simulation von SST-Beobachtungen. Alternativ zur komplizierten Theorie der Lagrangeschen Planetengleichungen können Bahnstörungen auch auf der Grundlage der viel einfacheren Hill-Gleichungen beschrieben werden. Diese stellen im Wesentlichen eine linearisierte Formulierung der Bewegungsgleichungen in einem kreisenden Koordinatensystem dar. Basierend auf den Hill-Gleichungen wurde ein Computerprogramm für die Generierung synthetischer SST-Beobachtungen mittels numerischer Integration sowie die Auswertung dieser Daten mittels Ausgleichung nach kleinsten Quadraten implementiert. Darauf aufbauend wurden auch die Einflüsse von Resonanzen, der zu bestimmenden Anfangsbedingungen und der Bogenlänge untersucht. Besonderes Augenmerk wurde den spektralen Eigenschaften von Bahnstörungen gewidmet. Die vorliegende Arbeit konzentriert sich auf die Erörterung der theoretischen Grundlagen der Hill-Gleichungen, die detaillierte Beschreibung der verwendeten Algorithmen sowie die Dokumentation einiger Ergebnisse.
Moderne Erdschwerefeld-Missionen beruhen auf zwei sehr unterschiedlichen Konzepten der Satellitengeodäsie: Während die Satellitengradiometrie die Bestimmung der mittleren und höheren Frequenzen ermöglicht, liefert die drei-dimensionale Erfassung der Bahnstörungen niedrigfliegender Satelliten mit Hilfe von Navigationssatelliten (engl. satellite-to-satellite tracking, SST) Informationen über die niederfrequenten Anteile des Schwerefeldes. Diese Arbeit beschäftigt sich mit der Simulation von SST-Beobachtungen. Alternativ zur komplizierten Theorie der Lagrangeschen Planetengleichungen können Bahnstörungen auch auf der Grundlage der viel einfacheren Hill-Gleichungen beschrieben werden. Diese stellen im Wesentlichen eine linearisierte Formulierung der Bewegungsgleichungen in einem kreisenden Koordinatensystem dar. Basierend auf den Hill-Gleichungen wurde ein Computerprogramm für die Generierung synthetischer SST-Beobachtungen mittels numerischer Integration sowie die Auswertung dieser Daten mittels Ausgleichung nach kleinsten Quadraten implementiert. Darauf aufbauend wurden auch die Einflüsse von Resonanzen, der zu bestimmenden Anfangsbedingungen und der Bogenlänge untersucht. Besonderes Augenmerk wurde den spektralen Eigenschaften von Bahnstörungen gewidmet. Die vorliegende Arbeit konzentriert sich auf die Erörterung der theoretischen Grundlagen der Hill-Gleichungen, die detaillierte Beschreibung der verwendeten Algorithmen sowie die Dokumentation einiger Ergebnisse.
Automatische Ableitung digitaler Geländemodelle
Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien, 2001. Begutachter: ao.Univ.Prof. Dr. Josef Jansa, Betreuer: Dipl.-Ing. Dr. Franz Rottensteiner
Kurzfassung/Abstract
Digitale Geländemodelle stellen mittlerweile bei der Vermittlung raumbezogener Daten ein unverzichtbares Hilfsmittel dar; sie sind beispielsweise wichtige Bestandteile in Geoinformationssystemen und bei der digitalen Orthophotoherstellung. Ziel dieser Diplomarbeit ist es, einen Algorithmus für die automatische Generierung von digitalen Geländemodellen aus digitalen Bildern zu entwickeln und zu implementieren. Der Algorithmus soll dabei einen allgemeinen Ansatz zur Rekonstruktion von Objekten, der am Institut für Fernerkundung und Photogrammetrie der Technischen Universität Wien entwickelt wurde, spezialisieren. Ausgegangen wird von zwei digitalen Bildern, den aus ihnen abgeleiteten Bildpyramiden und den bekannten Parametern der Orientierung, sowie von einer groben Näherung für das Geländemodell. Der Rekonstruktionsprozess zur Schaffung eines genauen Geländemodells läuft hierarchisch "vom Groben ins Feine" ab. Auf jeder Auflösungsstufe der digitalen Bilder erfolgt eine eigenständige Rekonstruktion der Geländeoberfläche. Zum Zwecke der Rekonstruktion werden die Bilder untereinander und mit dem Objekt in Beziehung gesetzt. Dies erfolgt durch eine merkmalsbasierte Zuordnung von Bildern im Objektraum. Aus dem Ergebnis des Zuordnungsprozesses entsteht in einem Nachbearbeitungsprozess ein neues, genaueres Geländemodell. Dieses Modell dient als Näherungsmodell für die nächste Auflösungsstufe, solange der hierarchische Prozess nicht abgeschlossen ist. Im Hintergrund des gesamten Ablaufs steht das am Institut für Fernerkundung und Photogrammetrie der Technischen Universität Wien entwickelte Programmsystem ORIENT. Es übernimmt die Datenverwaltung und ermöglicht die Einbindung eines expliziten Objektmodells in den Prozess, sowie die Durchführung robuster, hybrider Ausgleichungen, die im Zuordnungsalgorithmus von entscheidender Bedeutung sind. Der entwickelt Algorithmus wurde als C++ - Klasse implementiert. Diese fügt sich in objektorientierte Klassenbibliothek ein, welche Werkzeuge zur Rekonstruktion von Objekten zusammenfasst.
Digitale Geländemodelle stellen mittlerweile bei der Vermittlung raumbezogener Daten ein unverzichtbares Hilfsmittel dar; sie sind beispielsweise wichtige Bestandteile in Geoinformationssystemen und bei der digitalen Orthophotoherstellung. Ziel dieser Diplomarbeit ist es, einen Algorithmus für die automatische Generierung von digitalen Geländemodellen aus digitalen Bildern zu entwickeln und zu implementieren. Der Algorithmus soll dabei einen allgemeinen Ansatz zur Rekonstruktion von Objekten, der am Institut für Fernerkundung und Photogrammetrie der Technischen Universität Wien entwickelt wurde, spezialisieren. Ausgegangen wird von zwei digitalen Bildern, den aus ihnen abgeleiteten Bildpyramiden und den bekannten Parametern der Orientierung, sowie von einer groben Näherung für das Geländemodell. Der Rekonstruktionsprozess zur Schaffung eines genauen Geländemodells läuft hierarchisch "vom Groben ins Feine" ab. Auf jeder Auflösungsstufe der digitalen Bilder erfolgt eine eigenständige Rekonstruktion der Geländeoberfläche. Zum Zwecke der Rekonstruktion werden die Bilder untereinander und mit dem Objekt in Beziehung gesetzt. Dies erfolgt durch eine merkmalsbasierte Zuordnung von Bildern im Objektraum. Aus dem Ergebnis des Zuordnungsprozesses entsteht in einem Nachbearbeitungsprozess ein neues, genaueres Geländemodell. Dieses Modell dient als Näherungsmodell für die nächste Auflösungsstufe, solange der hierarchische Prozess nicht abgeschlossen ist. Im Hintergrund des gesamten Ablaufs steht das am Institut für Fernerkundung und Photogrammetrie der Technischen Universität Wien entwickelte Programmsystem ORIENT. Es übernimmt die Datenverwaltung und ermöglicht die Einbindung eines expliziten Objektmodells in den Prozess, sowie die Durchführung robuster, hybrider Ausgleichungen, die im Zuordnungsalgorithmus von entscheidender Bedeutung sind. Der entwickelt Algorithmus wurde als C++ - Klasse implementiert. Diese fügt sich in objektorientierte Klassenbibliothek ein, welche Werkzeuge zur Rekonstruktion von Objekten zusammenfasst.
Untersuchung und Vergleich von Local Area und Wide Area DGPS Diensten
Institut für Geodäsie und Geophysik, Abteilung für Angewandte Geodäsie und Ingenieurgeodäsie, TU Wien, 2001. Begutachter: Prof. Dr.-Ing. Heribert Kahmen, Betreuer: Dipl.-Ing. Dr. Günther Retscher.
Kurzfassung/Abstract
Die mit GPS erzielbare Genauigkeit für die Einzelpunktbestimmung reicht für viele Anwendungen nicht aus. Deshalb wurden verschiedene Möglichkeiten der Erzeugung von differentiellen GPS Korrekturen entwickelt. Man unterscheidet diese aufgrund der räumlichen Ausdehnung der zugrunde liegenden Referenzstationen, und teilt sie in Local Area DGPS und Wide Area DGPS Systeme. Nach der Besprechung der mathematischen Zusammenhänge und der Erläuterung der wesentlichen Fehlereinflüsse auf die Beobachtungen von Pseudostrecken, soll diese Arbeit die wesentlichen Merkmale und Unterschiede dieser Systeme deutlich machen. Dazu werden auch die Eigenschaften bestehender Korrekturdatendienste beider Gruppen untersucht. Das Hauptaugenmerk liegt dabei auf der Fehlermodellierung und der Korrekturdatenbildung im Zusammenhang mit den zu erreichenden Genauigkeiten. Anschließend werden Möglichkeiten gesucht, die gebräuchlichen Lösungsansätze der WADGPS Konzepte auf LADGPS umzusetzen. Praktische Untersuchung einer dieser Möglichkeiten, des virtuellen Referenzstationskonzeptes, anhand von Daten eines Testnetzes in Süddeutschland schließen die Arbeit ab.
Die mit GPS erzielbare Genauigkeit für die Einzelpunktbestimmung reicht für viele Anwendungen nicht aus. Deshalb wurden verschiedene Möglichkeiten der Erzeugung von differentiellen GPS Korrekturen entwickelt. Man unterscheidet diese aufgrund der räumlichen Ausdehnung der zugrunde liegenden Referenzstationen, und teilt sie in Local Area DGPS und Wide Area DGPS Systeme. Nach der Besprechung der mathematischen Zusammenhänge und der Erläuterung der wesentlichen Fehlereinflüsse auf die Beobachtungen von Pseudostrecken, soll diese Arbeit die wesentlichen Merkmale und Unterschiede dieser Systeme deutlich machen. Dazu werden auch die Eigenschaften bestehender Korrekturdatendienste beider Gruppen untersucht. Das Hauptaugenmerk liegt dabei auf der Fehlermodellierung und der Korrekturdatenbildung im Zusammenhang mit den zu erreichenden Genauigkeiten. Anschließend werden Möglichkeiten gesucht, die gebräuchlichen Lösungsansätze der WADGPS Konzepte auf LADGPS umzusetzen. Praktische Untersuchung einer dieser Möglichkeiten, des virtuellen Referenzstationskonzeptes, anhand von Daten eines Testnetzes in Süddeutschland schließen die Arbeit ab.
Algorithmen und ihre Implementierung in ein automatisiertes photogrammetrisches Nahbereichsmesssystem
Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien, 2001
Begutachter: o.Univ.Prof. Dr. Karl Kraus und Prof. Clive S. Fraser (BAppSc, MSurvSc, PhD), Betreuer: a.o.Univ.Prof. Dr. Josef Jansa
Kurzfassung/Abstract
Nahbereichsphotogrammetrie wird heutzutage als flexibles und hochgenaues 3D-Meßsystem in unterschiedlichen industriellen Bereichen verwendet. Über viele Jahre wurde die Photogrammetrie als wissens- und messintensive Technologie charakterisiert, welche nur einen geringen Automationsgrad aufwies. Seit Beginn der neunziger Jahre ermöglichen große Fortschritte in den Bereichen digitaler Kameras und Berechnungsmodelle die Entwicklung eines automatisierten "Ein-Knopfdruck-Messprozesses". Die Verwendung von hochauflösenden Digitalkameras in Zusammenhang mit retro-reflektierenden Zielmarken sowie die Möglichkeit der direkten Bildorientierungen ermöglichen ein stark automatisiertes und hochgenaues photogrammetrisches Messsystem im Nahbereich. Das photogrammetrische Programmpaket Australis vom Department of Geomatics von der University of Melbourne, wo diese Diplomarbeit entstanden ist, verfügte bisher nur über einen semi-automatischen Messprozess. Die Entwicklung und Implementierung eines vollautomatisierten Messprozesses für Australis ist Gegenstand dieser Diplomarbeit. Bei den Entwicklungen wurde besonders auf flexible und robuste Prozesse und Algorithmen geachtet. Programmiert wurde in Microsoft Visual C++. Besonderes Augenmerk galt dabei der Implementierung eines neuen "Scanning-Algorithmus" sowie dem Aufbau der Triangulierungsinformation für die Bündelblockausgleichung. Deshalb werden auch einige entwickelte Quellcode-Passagen in der Arbeit vorgestellt. Zentrales Thema bei der Entwicklung des vollautomatischen Messprozesses in Australis war, Methoden und Software für breite praktische Anwendungen zu entwickeln. Mit Hilfe der Entwicklung eines "Selbstvalidierungsprozesses", welcher Fehler erkennen und korrigieren kann, konnte ein durchgehender Fluss von der automatischen Datenerfassung bis zum Kontrollierten Endergebnis erreicht werden. Die Fähigkeiten und Möglichkeiten des neuen Systems werden anhand von zwei praktischen Projekten demonstriert. Für Objekte mit einer Ausdehnung von 1 m konnten Punktlagegenauigkeiten von 20 mm erreicht werden. Die dabei erzielte Messgeschwindigkeit liegt bei 0,2 Sekunden pro Objektpunkt bei Verwendung eines aktuellen Standard PCs.
Nahbereichsphotogrammetrie wird heutzutage als flexibles und hochgenaues 3D-Meßsystem in unterschiedlichen industriellen Bereichen verwendet. Über viele Jahre wurde die Photogrammetrie als wissens- und messintensive Technologie charakterisiert, welche nur einen geringen Automationsgrad aufwies. Seit Beginn der neunziger Jahre ermöglichen große Fortschritte in den Bereichen digitaler Kameras und Berechnungsmodelle die Entwicklung eines automatisierten "Ein-Knopfdruck-Messprozesses". Die Verwendung von hochauflösenden Digitalkameras in Zusammenhang mit retro-reflektierenden Zielmarken sowie die Möglichkeit der direkten Bildorientierungen ermöglichen ein stark automatisiertes und hochgenaues photogrammetrisches Messsystem im Nahbereich. Das photogrammetrische Programmpaket Australis vom Department of Geomatics von der University of Melbourne, wo diese Diplomarbeit entstanden ist, verfügte bisher nur über einen semi-automatischen Messprozess. Die Entwicklung und Implementierung eines vollautomatisierten Messprozesses für Australis ist Gegenstand dieser Diplomarbeit. Bei den Entwicklungen wurde besonders auf flexible und robuste Prozesse und Algorithmen geachtet. Programmiert wurde in Microsoft Visual C++. Besonderes Augenmerk galt dabei der Implementierung eines neuen "Scanning-Algorithmus" sowie dem Aufbau der Triangulierungsinformation für die Bündelblockausgleichung. Deshalb werden auch einige entwickelte Quellcode-Passagen in der Arbeit vorgestellt. Zentrales Thema bei der Entwicklung des vollautomatischen Messprozesses in Australis war, Methoden und Software für breite praktische Anwendungen zu entwickeln. Mit Hilfe der Entwicklung eines "Selbstvalidierungsprozesses", welcher Fehler erkennen und korrigieren kann, konnte ein durchgehender Fluss von der automatischen Datenerfassung bis zum Kontrollierten Endergebnis erreicht werden. Die Fähigkeiten und Möglichkeiten des neuen Systems werden anhand von zwei praktischen Projekten demonstriert. Für Objekte mit einer Ausdehnung von 1 m konnten Punktlagegenauigkeiten von 20 mm erreicht werden. Die dabei erzielte Messgeschwindigkeit liegt bei 0,2 Sekunden pro Objektpunkt bei Verwendung eines aktuellen Standard PCs.
Slepians - An Alternative Family of Orthonormal Base Functions on the Sphere
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU Graz, 2000. Betreuer: O.Univ.-Prof.Dipl.-Ing.Dr.techn. Hans Sünkel
Kurzfassung/Abstract
Bei der Bestimmung des Gravitationsfeldes der Erde mit Hilfe von Satellitenmessungen tauchen (neben anderen) zwei Probleme auf: diskrete Datenverteilung einerseits, und Löcher in der Datenverteilung andererseits. In der hier vorgelegten Arbeit wird eine Alternative zu den Kugelfunktionen (die sogenannten Slepians) entwickelt, die nur auf Teilbereichen der Kugel definiert sind. Als zweiter Schritt wird der traditionelle Ausgleich nach kleinsten Quadraten durch Einführung einer nicht euklidischen Norm erweitert, um die Probleme der diskreten Datenverteilung zu reduzieren. Die gesamte entwickelte Theorie ist in FORTRAN 90 und C implementiert, wobei die zeitaufwendigen Teile mit Hilfe eines internationalen Standards (Message Passing Interface) parallelisiert sind.
Bei der Bestimmung des Gravitationsfeldes der Erde mit Hilfe von Satellitenmessungen tauchen (neben anderen) zwei Probleme auf: diskrete Datenverteilung einerseits, und Löcher in der Datenverteilung andererseits. In der hier vorgelegten Arbeit wird eine Alternative zu den Kugelfunktionen (die sogenannten Slepians) entwickelt, die nur auf Teilbereichen der Kugel definiert sind. Als zweiter Schritt wird der traditionelle Ausgleich nach kleinsten Quadraten durch Einführung einer nicht euklidischen Norm erweitert, um die Probleme der diskreten Datenverteilung zu reduzieren. Die gesamte entwickelte Theorie ist in FORTRAN 90 und C implementiert, wobei die zeitaufwendigen Teile mit Hilfe eines internationalen Standards (Message Passing Interface) parallelisiert sind.
Entwicklung und Erprobung eines schrittmotorgesteuerten Digitalnivelliers
Institut für Geodäsie und Geophysik, Abteilung für Angewandte Geodäsie und Ingenieurgeodäsie der Technischen Universität Wien, 2001. Begutachter und Betreuer: o. Univ. Prof. Dr.-Ing. Heribert Kahmen, Mitbetreuer: Univ. Ass. Dipl.-Ing. Klaus Chmelina
Kurzfassung/Abstract
Digitale Nivelliere werden - neben den üblichen Anwendungen in geometrischen Linien und Flächennivellements - zunehmend bei permanenten Beobachtungen von Bauwerken eingesetzt. In dieser Arbeit wird die Entwicklung des Prototypen eines motorisierten Digitalnivelliers dargestellt. Seine Praxistauglichkeit wird durch ausgiebige Testmessungen und eine Langzeitüberwachungsmessung geprüft. Abschließend wird die entwickelte Steuerungssoftware durch eine wissensbasierte Messdatenverarbeitung, welche mit Hilfe gesammelter Informationen die Überwachungsmessung optimiert, erweitert.
Digitale Nivelliere werden - neben den üblichen Anwendungen in geometrischen Linien und Flächennivellements - zunehmend bei permanenten Beobachtungen von Bauwerken eingesetzt. In dieser Arbeit wird die Entwicklung des Prototypen eines motorisierten Digitalnivelliers dargestellt. Seine Praxistauglichkeit wird durch ausgiebige Testmessungen und eine Langzeitüberwachungsmessung geprüft. Abschließend wird die entwickelte Steuerungssoftware durch eine wissensbasierte Messdatenverarbeitung, welche mit Hilfe gesammelter Informationen die Überwachungsmessung optimiert, erweitert.
Location Based Services und ISO 19100-Normen
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik
Betreuer: Ao.Univ.Prof.Dr.phil. Norbert Bartelme.
Kurzfassung/Abstract
In der Diplomarbeit gibt es drei Themenschwerpunkte: Der erste Teil enthält allgemeine Erläuterungen zu den Bereichen Location Based Services (LBS) und den ISO 19100-Normen. Neben der prinzipiellen Funktionsweise des Wireless Application Protocol (WAP) werden noch verschiedene Positionierungstechniken mit mobilen Endgeräten, deren Fehlereinflüsse und die Probleme bei der Darstellung von WAP-Inhalten diskutiert. Im Abschnitt über die ISO 19100-Normen wird kurz die Entstehungsgeschichte von ISO-Normen beleuchtet und ein Überblick über alle ISO 19100-Normen gegeben. Ein weiterer Bestandteil dieses Abschnitts ist eine Einführung in die Unified Modeling Language (UML), welche in den weiteren Kapiteln als Modellierungssprache verwendet wird. Im zweiten Teil wird ein Metadatenkatalog für Daten, die zur Verwendung in LBS geeignet sind, erstellt. Die Darstellung der Metadaten erfolgt tabellarisch für alle in Österreich relevanten Daten und Quellen. Für einen ausgewählten Datensatz wird die Realisierung in der Extensible Markup Language (XML) und mit dem Softwareprodukt Rational Rose in Verbindung mit dem Tool Janus präsentiert. Alle drei Arten der Darstellung sind konform mit den ISO 19100-Normen, speziell mit ISO 19115 - Geographic information - Metadata. Im dritten Teil wird anhand einer konkreten Anwendung versucht, das Zusammenspiel zwischen den ISO 19100-Normen und LBS zu verdeutlichen. Vor der eigentlichen Programmierung in der Wireless Markup Language (WML) werden Entwicklertools von Ericsson und Nokia vorgestellt, ein Application schema definiert und ein Feature-Katalog erstellt. Die Anwendung in Form eines Verkehrsinformationssystems ist keine Implementierung bis in alle Details, sondern dazu gedacht, anhand ausgewählter Szenarien die Möglichkeiten von LBS aufzuzeigen.
In der Diplomarbeit gibt es drei Themenschwerpunkte: Der erste Teil enthält allgemeine Erläuterungen zu den Bereichen Location Based Services (LBS) und den ISO 19100-Normen. Neben der prinzipiellen Funktionsweise des Wireless Application Protocol (WAP) werden noch verschiedene Positionierungstechniken mit mobilen Endgeräten, deren Fehlereinflüsse und die Probleme bei der Darstellung von WAP-Inhalten diskutiert. Im Abschnitt über die ISO 19100-Normen wird kurz die Entstehungsgeschichte von ISO-Normen beleuchtet und ein Überblick über alle ISO 19100-Normen gegeben. Ein weiterer Bestandteil dieses Abschnitts ist eine Einführung in die Unified Modeling Language (UML), welche in den weiteren Kapiteln als Modellierungssprache verwendet wird. Im zweiten Teil wird ein Metadatenkatalog für Daten, die zur Verwendung in LBS geeignet sind, erstellt. Die Darstellung der Metadaten erfolgt tabellarisch für alle in Österreich relevanten Daten und Quellen. Für einen ausgewählten Datensatz wird die Realisierung in der Extensible Markup Language (XML) und mit dem Softwareprodukt Rational Rose in Verbindung mit dem Tool Janus präsentiert. Alle drei Arten der Darstellung sind konform mit den ISO 19100-Normen, speziell mit ISO 19115 - Geographic information - Metadata. Im dritten Teil wird anhand einer konkreten Anwendung versucht, das Zusammenspiel zwischen den ISO 19100-Normen und LBS zu verdeutlichen. Vor der eigentlichen Programmierung in der Wireless Markup Language (WML) werden Entwicklertools von Ericsson und Nokia vorgestellt, ein Application schema definiert und ein Feature-Katalog erstellt. Die Anwendung in Form eines Verkehrsinformationssystems ist keine Implementierung bis in alle Details, sondern dazu gedacht, anhand ausgewählter Szenarien die Möglichkeiten von LBS aufzuzeigen.
Konzepte zur Herstellung von Studien- und Freizeitkarten für Westkreta auf der Basis von Satellitenbilddaten
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, TU Graz, 2000. Betreuer: Prof.Dipl.-Ing.Dr.techn. Robert Kostka
Kurzfassung/Abstract
Neben einer Übersichtskarte von Westkreta, Richtmaßstab 1:150000, war die Herstellung einer Kulturgutkarte für die Halbinsel Akrotiri und einer Wanderkarte im Bereich der Hochebene von Omalos jeweils im Maßstab 1:50000, sowie von drei Karten für archäologische Arbeiten in Südkreta in den Maßstäben 1:25000 bis 1:5000 anzustreben. Als Ausgangsdaten wurden panchromatische KWR1000- und multispektrale LANDSAT7-Daten ausgewählt. Während LANDSAT7-Daten, maximale Auflösung 15 m, den Maßstabsbereich bis 1:50000 abdecken konnten, dienten die KWR1000-Daten, maximale Auflösung unter 2 m, für den Bereich bis 1:5000. Mehrwöchige Feldarbeiten in Westkreta ermöglichten mit Hilfe von in Graz vorbereiteten Arbeitsunterlagen wichtige Bildinterpretationen. Zusätzliche Messungen mit einem handheld GPS-Empfänger dienten nicht nur der Paßpunktbestimmung, sondern auch für das Lokalisieren von Verkehrswegen sowie für die lagerichtige Erfassung von in den Satellitenbildern nicht sichtbaren Objekten. Mit den Erkenntnissen der Feldforschungen wurde das Bildmaterial geokodiert. Bildkorrekturen beschränkten sich auf Kontrastverbesserungen, da die eigentliche Kartenaussage erst durch Kombination mit der eingefügten Strichinformation erzielt wird. Diese beinhaltet allgemeine touristische aber auch archäologisch relevante Informationen. Als Ergebnis entstanden insgesamt acht kombinierte Bild-Strichkarten.
Neben einer Übersichtskarte von Westkreta, Richtmaßstab 1:150000, war die Herstellung einer Kulturgutkarte für die Halbinsel Akrotiri und einer Wanderkarte im Bereich der Hochebene von Omalos jeweils im Maßstab 1:50000, sowie von drei Karten für archäologische Arbeiten in Südkreta in den Maßstäben 1:25000 bis 1:5000 anzustreben. Als Ausgangsdaten wurden panchromatische KWR1000- und multispektrale LANDSAT7-Daten ausgewählt. Während LANDSAT7-Daten, maximale Auflösung 15 m, den Maßstabsbereich bis 1:50000 abdecken konnten, dienten die KWR1000-Daten, maximale Auflösung unter 2 m, für den Bereich bis 1:5000. Mehrwöchige Feldarbeiten in Westkreta ermöglichten mit Hilfe von in Graz vorbereiteten Arbeitsunterlagen wichtige Bildinterpretationen. Zusätzliche Messungen mit einem handheld GPS-Empfänger dienten nicht nur der Paßpunktbestimmung, sondern auch für das Lokalisieren von Verkehrswegen sowie für die lagerichtige Erfassung von in den Satellitenbildern nicht sichtbaren Objekten. Mit den Erkenntnissen der Feldforschungen wurde das Bildmaterial geokodiert. Bildkorrekturen beschränkten sich auf Kontrastverbesserungen, da die eigentliche Kartenaussage erst durch Kombination mit der eingefügten Strichinformation erzielt wird. Diese beinhaltet allgemeine touristische aber auch archäologisch relevante Informationen. Als Ergebnis entstanden insgesamt acht kombinierte Bild-Strichkarten.
Verwendung eines abbildenden terrestrischen 3D-Laser-Scanners für photogrammetrische Aufgaben
Institut für Photogrammetrie und Fernerkundung, TU Wien, 2000. Begutachter: o.Univ.Prof.Dr. Karl Kraus, Betreuer: Dipl.-Ing. Norbert Pfeifer.
Kurzfassung/Abstract
Mit einem im Nahbereich arbeiteten Laser-Scanner können die Oberflächen von Objekten mit einer hohen Messgeschwindigkeit und einer hohen Dichte der Messungen aufgenommen werden. Zusätzlich zu den gemessenen Daten in Polarkoordinaten wird die Intensität des reflektierten Signals registriert; deshalb werden diese Geräte auch als abbildende terrestrische 3D-Laser-Scanner bezeichnet. Bei solchen Sensoren fällt zusätzlich noch ein digitales Bild an. Dadurch können photogrammetrische Methoden zur Auswertung eingesetzt werden. Aufgrund der gemessenen Entfernung zu jedem Pixel der digitalen Bilder können dreidimensionale Modelle geschaffen werden. Mit einer verketteten räumlichen Ähnlichkeits-transformation können mehrere Aufstellungen des Laser-Scanners in ein einheitliches Koordinatensystem transformiert werden. Die Parameter dieser Transformation können durch eine Ausgleichung ermittelt werden. Zu Testzwecken wurde ein Raum im Schloß Schönbrunn in Wien mit dem abbildenden terrestrischen 3D-Laser-Scanner LMS-Z210 der Fa. Riegl bearbeitet. Allein im Bereich der Decke standen 187 000 Punkte für die Ermittlung der Form der Oberfläche zur Verfügung. Diese hohe Punktdichte erlaubt eine zuverlässige Abschätzung der Genauigkeit der Lasermessungen. Es ergab sich eine Genauigkeit von ± 2,9 cm. 3D-Laser-Scanner mit einer höheren Genauigkeit sind in Entwicklung. Diese Aufnahme- und Auswertetechnik wird daher in Zukunft an Bedeutung gewinnen.
Mit einem im Nahbereich arbeiteten Laser-Scanner können die Oberflächen von Objekten mit einer hohen Messgeschwindigkeit und einer hohen Dichte der Messungen aufgenommen werden. Zusätzlich zu den gemessenen Daten in Polarkoordinaten wird die Intensität des reflektierten Signals registriert; deshalb werden diese Geräte auch als abbildende terrestrische 3D-Laser-Scanner bezeichnet. Bei solchen Sensoren fällt zusätzlich noch ein digitales Bild an. Dadurch können photogrammetrische Methoden zur Auswertung eingesetzt werden. Aufgrund der gemessenen Entfernung zu jedem Pixel der digitalen Bilder können dreidimensionale Modelle geschaffen werden. Mit einer verketteten räumlichen Ähnlichkeits-transformation können mehrere Aufstellungen des Laser-Scanners in ein einheitliches Koordinatensystem transformiert werden. Die Parameter dieser Transformation können durch eine Ausgleichung ermittelt werden. Zu Testzwecken wurde ein Raum im Schloß Schönbrunn in Wien mit dem abbildenden terrestrischen 3D-Laser-Scanner LMS-Z210 der Fa. Riegl bearbeitet. Allein im Bereich der Decke standen 187 000 Punkte für die Ermittlung der Form der Oberfläche zur Verfügung. Diese hohe Punktdichte erlaubt eine zuverlässige Abschätzung der Genauigkeit der Lasermessungen. Es ergab sich eine Genauigkeit von ± 2,9 cm. 3D-Laser-Scanner mit einer höheren Genauigkeit sind in Entwicklung. Diese Aufnahme- und Auswertetechnik wird daher in Zukunft an Bedeutung gewinnen.
Adressgenaue Routen und Touren im AIS Web
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, TU Graz, 2000. Betreuer: Prof. Dr. Norbert Bartelme.
Kurzfassung/Abstract
Mit Karten können einfache Fragen im Leben beantwortet werden, wie z.B. wo ist das dem Kunden nächstgelegene Lager? Wo ist die dem Unfallsort am nächsten gelegene Rettung? Seit dem Aufkommen der elektronischen Straßenkarten, können solche Fragen mit Hilfe der Computertechnologie beantwortet werden. Dies hat eine neue Welt an Produkten und Services eröffnet. So kann man heutzutage beispielsweise kürzeste Wege für seine Urlaubsplanung im Internet ermitteln. In dieser Diplomarbeit werden Datenlieferanten (natürlich kann nur ein Teil von ihnen herausgegriffen werden), sowie deren Services und Anwendungen vorgestellt. Im praktischen Teil wird eine adressgenaue kürzeste Wege - sowie Rundreise - Berechnung im AIS (Automobilinformationssystem Graz) bzw. AIS Web, basierend auf dem Smallworld GIS bzw. Smallworld Web, implementiert.
Mit Karten können einfache Fragen im Leben beantwortet werden, wie z.B. wo ist das dem Kunden nächstgelegene Lager? Wo ist die dem Unfallsort am nächsten gelegene Rettung? Seit dem Aufkommen der elektronischen Straßenkarten, können solche Fragen mit Hilfe der Computertechnologie beantwortet werden. Dies hat eine neue Welt an Produkten und Services eröffnet. So kann man heutzutage beispielsweise kürzeste Wege für seine Urlaubsplanung im Internet ermitteln. In dieser Diplomarbeit werden Datenlieferanten (natürlich kann nur ein Teil von ihnen herausgegriffen werden), sowie deren Services und Anwendungen vorgestellt. Im praktischen Teil wird eine adressgenaue kürzeste Wege - sowie Rundreise - Berechnung im AIS (Automobilinformationssystem Graz) bzw. AIS Web, basierend auf dem Smallworld GIS bzw. Smallworld Web, implementiert.
Modellierung und Visualisierung von Messungen auf einer Kugeloberfläche
Institut für Photogrammetrie und Fernerkundung, TU Wien, 2001. Begutachter: a.o.Univ.Prof.Dr. Josef Jansa, Betreuer: Dipl.-Ing. Norbert Pfeifer.
Kurzfassung/Abstract
Der Ersatz von natürlichen Hüftgelenken durch künstliche ist eine bekannte Methode der Humanmedizin. Ein Hüftgelenk besteht aus einem Gelenkkopf und einer Gelenkpfanne. Beide sind einfache geometrische Formen: der Gelenkkopf ist eine Kugelfläche, die Gelenkpfanne entspricht geometrisch der Innenseite einer Halbkugel. Durch Belastung ändert sich die Form der künstlichen Gelenkteile im Mikrometerbereich. Zur Forschung im Bereich Dauerhaftigkeit, Materialverschleiß, Materialwahl und anderen Aspekten kann die Darstellung und Interpretation von Abrieb bzw. Aufschub von Material am Gelenkteil eine bedeutende Hilfestellung sein. Die prinzipielle Aufgabenstellung der vorliegenden Arbeit ist die Modellierung einer deformierten Kugeloberfläche aus gegebenen Messungen einer 3-dimensionalen Koordinatenmeßmaschine und die Visualisierung der Abweichung von einer einzupassenden idealen Kugelform. Durch einen Ausgleich der Daten mit dem Programmsystem ORIENT ergibt sich der wahrscheinlichste Radius und die Elimination grober Fehler. Weiters sollten die Punkte von der Kugel in die Ebene projiziert werden, um ein digitales Höhenmodell mit dem Programmsystem SCOP berechnen zu können. Damit erhält man ein kontinuierliches Modell des Abriebs, mit dem für jede Position (j, l auf der Kugel; x, y in der Ebene) der Abrieb bestimmt ist. Ein weiterer Abschnitt beschäftigt sich mit dem verschiedensten Visualisierungsmöglichkeiten. In einem zweiten Schritt sollen die vorerst erprobten Softwarekomponenten miteinander verknüpft und für einen adäquaten Datenfluß gesorgt werden. Das Ziel ist mit möglichst wenig Interaktion von einem Benutzer die Messungen an der Kugelfläche zu verarbeiten und den Abrieb/Aufschub zu visualisieren.
Der Ersatz von natürlichen Hüftgelenken durch künstliche ist eine bekannte Methode der Humanmedizin. Ein Hüftgelenk besteht aus einem Gelenkkopf und einer Gelenkpfanne. Beide sind einfache geometrische Formen: der Gelenkkopf ist eine Kugelfläche, die Gelenkpfanne entspricht geometrisch der Innenseite einer Halbkugel. Durch Belastung ändert sich die Form der künstlichen Gelenkteile im Mikrometerbereich. Zur Forschung im Bereich Dauerhaftigkeit, Materialverschleiß, Materialwahl und anderen Aspekten kann die Darstellung und Interpretation von Abrieb bzw. Aufschub von Material am Gelenkteil eine bedeutende Hilfestellung sein. Die prinzipielle Aufgabenstellung der vorliegenden Arbeit ist die Modellierung einer deformierten Kugeloberfläche aus gegebenen Messungen einer 3-dimensionalen Koordinatenmeßmaschine und die Visualisierung der Abweichung von einer einzupassenden idealen Kugelform. Durch einen Ausgleich der Daten mit dem Programmsystem ORIENT ergibt sich der wahrscheinlichste Radius und die Elimination grober Fehler. Weiters sollten die Punkte von der Kugel in die Ebene projiziert werden, um ein digitales Höhenmodell mit dem Programmsystem SCOP berechnen zu können. Damit erhält man ein kontinuierliches Modell des Abriebs, mit dem für jede Position (j, l auf der Kugel; x, y in der Ebene) der Abrieb bestimmt ist. Ein weiterer Abschnitt beschäftigt sich mit dem verschiedensten Visualisierungsmöglichkeiten. In einem zweiten Schritt sollen die vorerst erprobten Softwarekomponenten miteinander verknüpft und für einen adäquaten Datenfluß gesorgt werden. Das Ziel ist mit möglichst wenig Interaktion von einem Benutzer die Messungen an der Kugelfläche zu verarbeiten und den Abrieb/Aufschub zu visualisieren.
Integration von Mobilkommunikationstechnologien zur Positionsbestimmung in Autonavigationssystemen
Institut für Geodäsie und Geophysik, Abteilung Angewandte Geodäsie und Ingenieurgeodäsie der Technischen Universität Wien, Nov. 2001 Begutachter: o.Univ.-Prof.Dr.-Ing. Heribert Kahmen, Betreuer: Ass.-Prof. Dipl.-Ing. Dr. Günther Retscher
Kurzfassung/Abstract
Ein Autonavigationssystem ist eine geeignete Orientierungshilfe, die speziell im städtischen Bereich bei der Suche nach dem gewünschten Fahrtziel von großem Vorteil ist. Alle kommerziellen Systeme setzen dabei auf satellitengestützte Navigation mit GPS (Global Positioning System). Da aber insbesondere in urbanen Gebieten die GPS-Navigation auf Grund der Abschattungsproblematik häufig nicht verfügbar ist, kommen in handelsüblichen Systemen neben GPS auch noch Koppelnavigationssensoren (Dead Reckoning) und Kartenvergleichstechniken (Map Matching) zum Einsatz. In der Arbeit werden die Methoden der Positionierung mit dem Mobiltelefon untersucht. Mit Hilfe dieser Möglichkeit der Positionierung soll bei Unterbrechung bzw. Ausfall der GPS-Positionierung eine Steigerung der Zuverlässigkeit erreicht werden. Als mögliche Mobilfunknetze werden das bestehende GSM-Netz (Global System for Mobile Communications) und das UMTS-Netz (Universal Mobile Telecommunications System), welches sich im Aufbau befindet, betrachtet. Die gemeinsame Verarbeitung der Messdaten erfolgt durch eine Kalman-Filterung, weil sich dieser Filteralgorithmus besonders gut für Online-Auswertungen eignet. Die erreichte Steigerung der Zuverlässigkeit, durch die Integration der Positionierung mittels Mobiltelefon in ein Autonavigationssystem, wird anhand eins Testbeispieles und Simulationsrechnungen nachgewiesen. Abschließend zeigt ein Überblick und Vergleich einiger gängiger Autonavigationssysteme auf, welche Systeme für den Einsatz der Positionierung mittels Mobiltelefon geeignet sind.
Ein Autonavigationssystem ist eine geeignete Orientierungshilfe, die speziell im städtischen Bereich bei der Suche nach dem gewünschten Fahrtziel von großem Vorteil ist. Alle kommerziellen Systeme setzen dabei auf satellitengestützte Navigation mit GPS (Global Positioning System). Da aber insbesondere in urbanen Gebieten die GPS-Navigation auf Grund der Abschattungsproblematik häufig nicht verfügbar ist, kommen in handelsüblichen Systemen neben GPS auch noch Koppelnavigationssensoren (Dead Reckoning) und Kartenvergleichstechniken (Map Matching) zum Einsatz. In der Arbeit werden die Methoden der Positionierung mit dem Mobiltelefon untersucht. Mit Hilfe dieser Möglichkeit der Positionierung soll bei Unterbrechung bzw. Ausfall der GPS-Positionierung eine Steigerung der Zuverlässigkeit erreicht werden. Als mögliche Mobilfunknetze werden das bestehende GSM-Netz (Global System for Mobile Communications) und das UMTS-Netz (Universal Mobile Telecommunications System), welches sich im Aufbau befindet, betrachtet. Die gemeinsame Verarbeitung der Messdaten erfolgt durch eine Kalman-Filterung, weil sich dieser Filteralgorithmus besonders gut für Online-Auswertungen eignet. Die erreichte Steigerung der Zuverlässigkeit, durch die Integration der Positionierung mittels Mobiltelefon in ein Autonavigationssystem, wird anhand eins Testbeispieles und Simulationsrechnungen nachgewiesen. Abschließend zeigt ein Überblick und Vergleich einiger gängiger Autonavigationssysteme auf, welche Systeme für den Einsatz der Positionierung mittels Mobiltelefon geeignet sind.
Untersuchung der Einsetzbarkeit von RTK-GPS auf einer Baustelle
Institut für Geodäsie und Geophysik, Abteilung für Angewandte Geodäsie und Ingenieurgeodäsie, TU Wien, 2000. Begutachter: Prof. Heribert Kahmen, Betreuer: Dipl.-Ing. Klaus Chmelina, Dr. Günther Retscher.
Kurzfassung/Abstract
Ziel dieser Arbeit ist es, die Einsetzbarkeit von RTK-GPS in der Vermessungspraxis, insbesondere für den Einsatz bei verschiedenartigen Vermessungsaufgaben auf einer Baustelle während des Baubetriebes zu untersuchen. Die Testgebiete (Obertagebaubereiche der Tunnelkette Klaus, Pyhrn) wurden dabei so gewählt, dass sie aufgrund ihrer Größe sowie ihrer topographischen Verhältnisse das verwendete RTK-System (Leica System 530, Niros Telemetriemodem) an seine Grenzen führen und somit das Potenzial aber auch die Schwierigkeiten dieses Messverfahrens aufgezeigt werden können. Hinsichtlich der erzielten Messergebnisse werden qualitative und quantitative Beurteilungen vorgenommen. Dazu zählen Analysen der Initialisierungszeiten, der Einflüsse der Satellitengeometrie, der Abschattungen, der Standortwahl der Referenzstation sowie der Reichweite der Telemetrie. Zuverlässigkeiten und Genauigkeiten werden anhand von Mehrfachmessungen und vollkommen unabhängigen Messungen mit anderen Systemen ermittelt. Zusätzlich werden der Einfluß einer Vernachlässigung der Geoidundulationen im Testgebiet auf die Transformationsparameter sowie Koordinatenergebnisse und die speziell bei Verwendung eines manuell gehaltenen Lotstocks auftretenden Punktlageunsicherheiten untersucht. Die Ergebnisse der einzelnen Tests lassen darauf schließen, daß die optimalen Einsatzbereiche des Verfahrens bei der Aufnahme und Absteckung von Punkten liegen, für welche eine Genauigkeit von 2 bis 3 cm in Lage und Höhe ausreicht und eine konventionelle terrestrische Vermessung vergleichsweise arbeitsaufwendiger ist (z.B. bei der Absteckung von vom Festpunktfeld weiter entfernt liegenden Punkten). Als problematischer Faktor erweist sich aufgrund der gesetzlich beschränkten Sendeleistung die Reichweite der verwendeten Telemetrieausrüstung. Die Ergebnisse der Tests haben keinen Anspruch auf allgemeine Gültigkeit, da sie sich nur auf spezielle Anwendungsfälle und auf das verwendete Messsystem beziehen. Sie können aber als Erfahrungswerte für ähnlich gelagerte Situationen herangezogen werden.
Ziel dieser Arbeit ist es, die Einsetzbarkeit von RTK-GPS in der Vermessungspraxis, insbesondere für den Einsatz bei verschiedenartigen Vermessungsaufgaben auf einer Baustelle während des Baubetriebes zu untersuchen. Die Testgebiete (Obertagebaubereiche der Tunnelkette Klaus, Pyhrn) wurden dabei so gewählt, dass sie aufgrund ihrer Größe sowie ihrer topographischen Verhältnisse das verwendete RTK-System (Leica System 530, Niros Telemetriemodem) an seine Grenzen führen und somit das Potenzial aber auch die Schwierigkeiten dieses Messverfahrens aufgezeigt werden können. Hinsichtlich der erzielten Messergebnisse werden qualitative und quantitative Beurteilungen vorgenommen. Dazu zählen Analysen der Initialisierungszeiten, der Einflüsse der Satellitengeometrie, der Abschattungen, der Standortwahl der Referenzstation sowie der Reichweite der Telemetrie. Zuverlässigkeiten und Genauigkeiten werden anhand von Mehrfachmessungen und vollkommen unabhängigen Messungen mit anderen Systemen ermittelt. Zusätzlich werden der Einfluß einer Vernachlässigung der Geoidundulationen im Testgebiet auf die Transformationsparameter sowie Koordinatenergebnisse und die speziell bei Verwendung eines manuell gehaltenen Lotstocks auftretenden Punktlageunsicherheiten untersucht. Die Ergebnisse der einzelnen Tests lassen darauf schließen, daß die optimalen Einsatzbereiche des Verfahrens bei der Aufnahme und Absteckung von Punkten liegen, für welche eine Genauigkeit von 2 bis 3 cm in Lage und Höhe ausreicht und eine konventionelle terrestrische Vermessung vergleichsweise arbeitsaufwendiger ist (z.B. bei der Absteckung von vom Festpunktfeld weiter entfernt liegenden Punkten). Als problematischer Faktor erweist sich aufgrund der gesetzlich beschränkten Sendeleistung die Reichweite der verwendeten Telemetrieausrüstung. Die Ergebnisse der Tests haben keinen Anspruch auf allgemeine Gültigkeit, da sie sich nur auf spezielle Anwendungsfälle und auf das verwendete Messsystem beziehen. Sie können aber als Erfahrungswerte für ähnlich gelagerte Situationen herangezogen werden.
Der multimediale digitale Wanderführer auf Basis von Fernerkundungsdaten # Der multimediale digitale Wanderführer auf Basis von Fernerkundungsdaten
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, 2001. Betreuer: o.Univ.Prof.Dipl.-Ing.Dr.techn. Gerhard Brandstätter
Kurzfassung/Abstract
Das Zusammenwirken verschiedenster Medien bei der Informationsvermittlung gewinnt sowohl in wirtschaftlichen als auch wissenschaftlichen Bereichen immer mehr an Bedeutung. In der EDV wurde dafür der Begriff Multimedia geprägt, der dafür steht, daß verschiedene Medien für eine verbesserte Informationspräsentation kombiniert werden. Auch in touristischen Belangen wird multimediale Informationsvermittlung im Internet sowie auf digitalen Broschüren immer stärker eingesetzt. Daraus entstand die Idee, einen Wanderführer mit den zur Zeit gängigen Multimediatechniken umzusetzen. Da speziell in diesem Bereich der Bezug zur Region und zur Natur besonders stark sein soll, wurden sämtliche Landschaftsdarstellungen auf Basis von Luft- und Satellitenbilddaten erstellt. Um einen guten und umfassenden Eindruck von den Wanderrouten und Regionen zu vermitteln, wurden die 3D-Tourendarstellungen durch virtuelle Flüge und 360°-Panoramen ergänzt. In der Arbeit werden die Grundlagen und Vorverarbeitungsschritte digitaler Fernerkundungsdaten beschrieben, weiters wird ein kurzer Abriß über Multimediatechniken gegeben. Auf Basis dieser Grundlagen werden dann die Erstellung der 3D-Modelle und Animationen sowie ihre Einbindung in den digitalen Wanderführer gezeigt. Die Idee, einen multimedialen Wanderführer zu erstellen, entstand aus verschiedenen Projekten der Gruppe für 3D-Visualisierung und Multimedia am Institut für Digitale Bildverarbeitung (http://dib.joanneum.ac.at/) der Forschungsgesellschaft Joanneum Research Graz. Die Anwendung von Fernerkundungsdaten für touristische Zwecke bildete das Hauptthema eines von der EU geförderten Projektes, welches im Jahr 2000 durchgeführt wurde. Hierbei wurde demonstriert, welche potentiellen Möglichkeiten der Visualisierung für den Tourismus vorhanden sind. Der multimediale digitale Wanderführer ist ein Demoprodukt aus diesem Projekt.
Das Zusammenwirken verschiedenster Medien bei der Informationsvermittlung gewinnt sowohl in wirtschaftlichen als auch wissenschaftlichen Bereichen immer mehr an Bedeutung. In der EDV wurde dafür der Begriff Multimedia geprägt, der dafür steht, daß verschiedene Medien für eine verbesserte Informationspräsentation kombiniert werden. Auch in touristischen Belangen wird multimediale Informationsvermittlung im Internet sowie auf digitalen Broschüren immer stärker eingesetzt. Daraus entstand die Idee, einen Wanderführer mit den zur Zeit gängigen Multimediatechniken umzusetzen. Da speziell in diesem Bereich der Bezug zur Region und zur Natur besonders stark sein soll, wurden sämtliche Landschaftsdarstellungen auf Basis von Luft- und Satellitenbilddaten erstellt. Um einen guten und umfassenden Eindruck von den Wanderrouten und Regionen zu vermitteln, wurden die 3D-Tourendarstellungen durch virtuelle Flüge und 360°-Panoramen ergänzt. In der Arbeit werden die Grundlagen und Vorverarbeitungsschritte digitaler Fernerkundungsdaten beschrieben, weiters wird ein kurzer Abriß über Multimediatechniken gegeben. Auf Basis dieser Grundlagen werden dann die Erstellung der 3D-Modelle und Animationen sowie ihre Einbindung in den digitalen Wanderführer gezeigt. Die Idee, einen multimedialen Wanderführer zu erstellen, entstand aus verschiedenen Projekten der Gruppe für 3D-Visualisierung und Multimedia am Institut für Digitale Bildverarbeitung (http://dib.joanneum.ac.at/) der Forschungsgesellschaft Joanneum Research Graz. Die Anwendung von Fernerkundungsdaten für touristische Zwecke bildete das Hauptthema eines von der EU geförderten Projektes, welches im Jahr 2000 durchgeführt wurde. Hierbei wurde demonstriert, welche potentiellen Möglichkeiten der Visualisierung für den Tourismus vorhanden sind. Der multimediale digitale Wanderführer ist ein Demoprodukt aus diesem Projekt.
C++ - Klassen und -Funktionen zur linearen Algebra in der Geodäsie
Institut für Theoretische Geodäsie, Abteilung für Physikalische Geodäsie
Betreuer: o.Univ.Prof.Dr.Dr.h.c.mult. Helmut Moritz, Ass.Prof.Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Anders als z.B. in Fortran sind in C/C++ keine fertigen, benutzerfreundlichen Bausteine zum Codieren von Berechnungen im Bereich der linearen Algebra vorgesehen. Diesem Mangel soll das Programmpaket "C++MatrixTools" entgegenwirken, das im Zuge der Diplomarbeit "C++-Klassen und -Funktionen zur linearen Algebra in der Geodäsie" in Version 1.0 entstanden ist. "C++MatrixTools" ist ein Software-Baukasten auf objektorientierter Basis in Form von Template-Klassenhierarchien und -Funktionen. In Version 1.0 sind Vektoren, allgemeine und quadratische Matrizen in zeilenweiser und spaltenweiser Speicherung sowie symmetrische Matrizen und Diagonalmatrizen in effizienter Speicherung integriert. Das Paket bietet Grundfunktionalität wie Zugriff auf Elemente, Zugriff auf Unterbereiche, dynamische Größen- und Kapazitätsänderungen etc., erweiterte Funktionalität wie Matrizenmultiplikation, Inversion etc. und Ein-/Ausgabefunktionalität. Wesentliche Prinzipien von "C++MatrixTools" sind modularer Aufbau, dynamische Speicherverwaltung, Typunabhängigkeit, Ressourceneffizienz, Sicherheit sowie Offenheit durch Bereitstellen des Sourcecodes. Das Paket wurde im Hinblick auf geodätische Anwendungen erstellt, sollte jedoch auch ein breites Anwendungsgebiet in anderen technischen Disziplinen finden. Die praktische Anwendung von "C++MatrixTools" wird durch eine ausführliche Dokumentation in der schriftlichen Diplomarbeit erleichtert.
Anders als z.B. in Fortran sind in C/C++ keine fertigen, benutzerfreundlichen Bausteine zum Codieren von Berechnungen im Bereich der linearen Algebra vorgesehen. Diesem Mangel soll das Programmpaket "C++MatrixTools" entgegenwirken, das im Zuge der Diplomarbeit "C++-Klassen und -Funktionen zur linearen Algebra in der Geodäsie" in Version 1.0 entstanden ist. "C++MatrixTools" ist ein Software-Baukasten auf objektorientierter Basis in Form von Template-Klassenhierarchien und -Funktionen. In Version 1.0 sind Vektoren, allgemeine und quadratische Matrizen in zeilenweiser und spaltenweiser Speicherung sowie symmetrische Matrizen und Diagonalmatrizen in effizienter Speicherung integriert. Das Paket bietet Grundfunktionalität wie Zugriff auf Elemente, Zugriff auf Unterbereiche, dynamische Größen- und Kapazitätsänderungen etc., erweiterte Funktionalität wie Matrizenmultiplikation, Inversion etc. und Ein-/Ausgabefunktionalität. Wesentliche Prinzipien von "C++MatrixTools" sind modularer Aufbau, dynamische Speicherverwaltung, Typunabhängigkeit, Ressourceneffizienz, Sicherheit sowie Offenheit durch Bereitstellen des Sourcecodes. Das Paket wurde im Hinblick auf geodätische Anwendungen erstellt, sollte jedoch auch ein breites Anwendungsgebiet in anderen technischen Disziplinen finden. Die praktische Anwendung von "C++MatrixTools" wird durch eine ausführliche Dokumentation in der schriftlichen Diplomarbeit erleichtert.
Modellgestützte Rekonstruktion von Gebäuden und deren Verwaltung in einem Topographischen Informationssystem
Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien, 2001. Begutachter: o.Univ.Prof. Dr. Karl Kraus, Betreuer: Dipl.-Ing. Dr. Franz Rottensteiner
Kurzfassung/Abstract
In dieser Diplomarbeit werden Prinzipien vorgestellt, die auch im Bereich GIS und Computer Vision anzusiedeln sind. Ein neuartiges System zur halbautomatischen Erfassung von Gebäuden wird vorgestellt, erweitert und getestet. Es ist innerhalb der am Institut für Photogrammetrie und Fernerkundung der TU Wien entwickelten Programme realisiert: ORPHEUS zur monoskopischen, interaktiven Messung in digitalen Bildern, ORIENT zur robusten hybriden Ausgleichung und SCOP.TDM zur Verwaltung von topographischen Daten. Das System wendet ein hybrides Modellierungsschema an, das dem Benutzer über eine graphische Schnittstelle einfache Gebäudeprimitive zur Verfügung stellt, die nach der Rekonstruktion mit Boolschen Operatoren kombiniert werden können. Intern werden diese Gebäudeprimitive als Randdarstellungen behandelt. Die Flächen der Randdarstellung werden im Rekonstruktionsprozeß durch ebene Gestalten repräsentiert. Diese Ebenen werden durch beobachtete Punkte, die in diesen Ebenen liegen, mittels Ausgleichung bestimmt. Neben fest implementierten prismatischen Primitiven gibt es parametrische Primitive, die vom Benutzer definiert werden können und die in einer Datenbank verwaltet werden. Eine solche Datenbank von Primitiven wurde im Rahmen dieser Arbeit erstellt. Um ein einzelnes Gebäude zu rekonstruieren, wird aus der Datenbank ein Primitiv ausgewählt und seine Parameter interaktiv bestimmt. Danach erfolgt eine automatische Feinmessung. Durch visuelle Kontrolle kann festgestellt werden, ob eine interaktive Nachbearbeitung des Primitivs nötig ist. Eine zentrale Rolle, sowohl bei der interaktiven, als auch bei der automatischen Bestimmung der Parameter, spielt die robuste hybride Ausgleichung, wobei neben den beobachteten Bildkoordinaten der Gebäudeecken auch Gestaltbeobachtungen berücksichtigt werden. Die automatische Feinmessung wendet merkmalsbasierte Zuordnung im Objektraum in einem hierarchischen Verfahren an. Die rekonstruierten Gebäude sollten dauerhaft in einem Topographischen Informationssystem gespeichert werden. Gebäudeprimitive werden vom System als Binärobjekte gespeichert, während deren Metadaten in einer relationalen Datenbank verwaltet werden. Im Zuge dieser Arbeit wurde eine Schnittstelle entwickelt, die eine objektorientierte Sicht auf eine relationale Datenbank für die Verwendung der Gebäudedaten ermöglicht. Das System wurde im Rahmen der Diplomarbeit anhand eines Pilotprojektes getestet. Dabei wurde das Verhalten der Kontrollparameter auf die Ergebnisse der automatischen Feinmessung und die Praxistauglichkeit des Verfahrens untersucht. Die Parameter gut definierter Gebäude wurden mit einer Lagegenauigkeit von ± 2-5 cm und einer Höhengenauigkeit von ± 5 - 10 cm bestimmt.
In dieser Diplomarbeit werden Prinzipien vorgestellt, die auch im Bereich GIS und Computer Vision anzusiedeln sind. Ein neuartiges System zur halbautomatischen Erfassung von Gebäuden wird vorgestellt, erweitert und getestet. Es ist innerhalb der am Institut für Photogrammetrie und Fernerkundung der TU Wien entwickelten Programme realisiert: ORPHEUS zur monoskopischen, interaktiven Messung in digitalen Bildern, ORIENT zur robusten hybriden Ausgleichung und SCOP.TDM zur Verwaltung von topographischen Daten. Das System wendet ein hybrides Modellierungsschema an, das dem Benutzer über eine graphische Schnittstelle einfache Gebäudeprimitive zur Verfügung stellt, die nach der Rekonstruktion mit Boolschen Operatoren kombiniert werden können. Intern werden diese Gebäudeprimitive als Randdarstellungen behandelt. Die Flächen der Randdarstellung werden im Rekonstruktionsprozeß durch ebene Gestalten repräsentiert. Diese Ebenen werden durch beobachtete Punkte, die in diesen Ebenen liegen, mittels Ausgleichung bestimmt. Neben fest implementierten prismatischen Primitiven gibt es parametrische Primitive, die vom Benutzer definiert werden können und die in einer Datenbank verwaltet werden. Eine solche Datenbank von Primitiven wurde im Rahmen dieser Arbeit erstellt. Um ein einzelnes Gebäude zu rekonstruieren, wird aus der Datenbank ein Primitiv ausgewählt und seine Parameter interaktiv bestimmt. Danach erfolgt eine automatische Feinmessung. Durch visuelle Kontrolle kann festgestellt werden, ob eine interaktive Nachbearbeitung des Primitivs nötig ist. Eine zentrale Rolle, sowohl bei der interaktiven, als auch bei der automatischen Bestimmung der Parameter, spielt die robuste hybride Ausgleichung, wobei neben den beobachteten Bildkoordinaten der Gebäudeecken auch Gestaltbeobachtungen berücksichtigt werden. Die automatische Feinmessung wendet merkmalsbasierte Zuordnung im Objektraum in einem hierarchischen Verfahren an. Die rekonstruierten Gebäude sollten dauerhaft in einem Topographischen Informationssystem gespeichert werden. Gebäudeprimitive werden vom System als Binärobjekte gespeichert, während deren Metadaten in einer relationalen Datenbank verwaltet werden. Im Zuge dieser Arbeit wurde eine Schnittstelle entwickelt, die eine objektorientierte Sicht auf eine relationale Datenbank für die Verwendung der Gebäudedaten ermöglicht. Das System wurde im Rahmen der Diplomarbeit anhand eines Pilotprojektes getestet. Dabei wurde das Verhalten der Kontrollparameter auf die Ergebnisse der automatischen Feinmessung und die Praxistauglichkeit des Verfahrens untersucht. Die Parameter gut definierter Gebäude wurden mit einer Lagegenauigkeit von ± 2-5 cm und einer Höhengenauigkeit von ± 5 - 10 cm bestimmt.
Animation in der Digitalkartographie
Institut für Theoretische Geodäsie, Abteilung für Mathematische Geodäsie und Geoinformatik, Graz 2002. Betreuer: Ao.Univ.Prof.Dr.phil. Norbert Bartelme
Kurzfassung/Abstract
Beschränkungen der traditionellen kartographischen Werke werden durch den Einsatz von Mitteln der Computertechnologie in der Digitalkartographie abgeschwächt oder aufgehoben. Die Digitalkartographie ist eine interdisziplinäre Wissenschaft zwischen digitaler Bildverarbeitung, Geoinformatik und Kartographie. Sie liefert Erkenntnisse, die in der Präsentation der Komponenten und Techniken von Computeranimationen münden. Konzeptions- und Erstellungsrichtlinien werden im Kontext mit der Funktionsweise des menschlichen Sehsinnes zusammengefasst. Am Beispiel von zeitbezogene Geodaten wird der mögliche Praxiseinsatz von Computeranimationen in der Digitalkartographie aufgezeigt. Erfassung der notwendigen Daten von ausgewählten Burgen und Schlössern der Weststeiermark als Basis für die Entwicklung von softwareunabhängigen Visualisierungen auf CD-ROM. Diese Visualisierungen beinhalten dynamische Übersichtskarten, sensitive Signaturen zur weiteren Informationsvermittlung, Panoramaansichten und Videosequenzen für die Benutzergruppe von Kartographen und Historikern. Anhand des Praxisbeispieles wird auf die verwendete Software Director 8.0 von Macromedia und der implementierten Skriptsprache Lingo eingegangen. Die Zusammenfassung von Richtlinien für Animationen im Internet beschließen die Arbeit.
Beschränkungen der traditionellen kartographischen Werke werden durch den Einsatz von Mitteln der Computertechnologie in der Digitalkartographie abgeschwächt oder aufgehoben. Die Digitalkartographie ist eine interdisziplinäre Wissenschaft zwischen digitaler Bildverarbeitung, Geoinformatik und Kartographie. Sie liefert Erkenntnisse, die in der Präsentation der Komponenten und Techniken von Computeranimationen münden. Konzeptions- und Erstellungsrichtlinien werden im Kontext mit der Funktionsweise des menschlichen Sehsinnes zusammengefasst. Am Beispiel von zeitbezogene Geodaten wird der mögliche Praxiseinsatz von Computeranimationen in der Digitalkartographie aufgezeigt. Erfassung der notwendigen Daten von ausgewählten Burgen und Schlössern der Weststeiermark als Basis für die Entwicklung von softwareunabhängigen Visualisierungen auf CD-ROM. Diese Visualisierungen beinhalten dynamische Übersichtskarten, sensitive Signaturen zur weiteren Informationsvermittlung, Panoramaansichten und Videosequenzen für die Benutzergruppe von Kartographen und Historikern. Anhand des Praxisbeispieles wird auf die verwendete Software Director 8.0 von Macromedia und der implementierten Skriptsprache Lingo eingegangen. Die Zusammenfassung von Richtlinien für Animationen im Internet beschließen die Arbeit.
Verifizierung von digitalen Geländemodellen aus Laserscannerdaten
Institut für Angewandte Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, TU Graz, 2000. Betreuer: o.Univ.Prof.Dipl.-Ing.Dr. Gerhard Brandstätter.
Kurzfassung/Abstract
Im Zuge des EU Projekts HIGH-SCAN, dessen Aufgabe es ist mittels hochauflösenden Satelliten- und Laserscannerdaten Verfahren zur Gewinnung von forstlichen Parametern zu entwickeln, wurde ein Algorithmus zur Erstellung von DGM`s aus Laserscannerdaten am Institut für Digitale Bildverarbeitung des Joanneum Research erarbeitet. Um die Leistungsfähigkeit dieses Algorithmus untersuchen zu können, wurden in zwei Testgebieten Aufnahmebereiche festgelegt und genau vermessen. Aus den Daten dieser Vermessungen wurden DGM`s berechnet, mit deren Hilfe eine Verifizierung der aus Laserscannerdaten erstellten DGM`s durchgeführt wurde. Nachdem für jedes der beiden Testgebiete, eines im gebirgigen und eines im flachen Teil der Steiermark gelegen, geeignete Einstellungen, wie Glättungsparameter und Schrankenwerte, zur Steuerung des Algorithmus festgelegt waren, konnten aus den Differenzbildern der beiden DGM`s folgender Schluß gezogen werden: liegt der Anteil der Bodenpunkte bei mindestens 35 Prozent, so ist der Algorithmus bei ebenen wie auch steilem Gelände in der Lage, ein genaues digitales Geländemodell zu generieren. In diesem Fall ergibt der Mittelwert des Differenzbildes etwa 10 cm und die entsprechende Standardabweichung liegt bei 15 bis 25 cm.
Im Zuge des EU Projekts HIGH-SCAN, dessen Aufgabe es ist mittels hochauflösenden Satelliten- und Laserscannerdaten Verfahren zur Gewinnung von forstlichen Parametern zu entwickeln, wurde ein Algorithmus zur Erstellung von DGM`s aus Laserscannerdaten am Institut für Digitale Bildverarbeitung des Joanneum Research erarbeitet. Um die Leistungsfähigkeit dieses Algorithmus untersuchen zu können, wurden in zwei Testgebieten Aufnahmebereiche festgelegt und genau vermessen. Aus den Daten dieser Vermessungen wurden DGM`s berechnet, mit deren Hilfe eine Verifizierung der aus Laserscannerdaten erstellten DGM`s durchgeführt wurde. Nachdem für jedes der beiden Testgebiete, eines im gebirgigen und eines im flachen Teil der Steiermark gelegen, geeignete Einstellungen, wie Glättungsparameter und Schrankenwerte, zur Steuerung des Algorithmus festgelegt waren, konnten aus den Differenzbildern der beiden DGM`s folgender Schluß gezogen werden: liegt der Anteil der Bodenpunkte bei mindestens 35 Prozent, so ist der Algorithmus bei ebenen wie auch steilem Gelände in der Lage, ein genaues digitales Geländemodell zu generieren. In diesem Fall ergibt der Mittelwert des Differenzbildes etwa 10 cm und die entsprechende Standardabweichung liegt bei 15 bis 25 cm.
The Significance of Orthogonality in the Framework of Digital Signal Analysis
Institut für Theoretische Geodäsie Abteilung für Mathematische Geodäsie und Geoinformatik, 2001. Betreuer: Univ.Prof. Dipl.-Ing. Dr.tech. Wolf-Dieter Schuh.
Kurzfassung/Abstract
Das angestrebte Ziel zukünftiger Satellitenmissionen wie z.B. GOCE ist die Bestimmung des Erdgravitationsfeldes und der damit verbundenen Referenz-Equipotentialfläche - dem Geoid. Das Geoid der Erde, entlang eines Meridians betrachtet, entspricht einem eindimensionalen, periodischen Signal, das, wie aus der Signalverarbeitung bekannt ist, durch ein Linienspektrum definiert wird. Die Transformation in ein Spektrum wird durch die Orthogonalität der Basisfunktionen ermöglicht. Werden nicht alle Basisfunktionen, die ein Signal synthetisieren, analysiert, so kommt es auf Grund des Aliasing-Effekts als Folge der Abtastung des kontinuierlichen Signals wie auch durch Leakage zu Verzerrungen des Spektrums. Leakage entsteht entweder durch unregelmäßig verteilte Daten oder durch ein Analyseintervall das nicht der Periode des Signals entspricht. Die Konsequenz beider Effekte ist ein Verlust der Orthogonalität der Basis. Unterschiedliche Gruppen von Basisfunktionen z.B. trigonometrische Funktionen, Legendre Polynome stellen dabei individuelle Anforderungen an die Datenverteilung. Die Signalanalyse beschäftigt sich mit der Bestimmung der Basisfunktionskoeffizienten, die das Signal definieren. Die Anwendung der Ausgleichsrechnung als Identifikationsprozess ermöglicht die exakte Analyse des Signals durch entsprechende Wahl einer Gewichtsmatrix, deren Verwendung entweder als Filterungsprozess oder als Orthogonalisierungsstrategie zu verstehen ist.
Das angestrebte Ziel zukünftiger Satellitenmissionen wie z.B. GOCE ist die Bestimmung des Erdgravitationsfeldes und der damit verbundenen Referenz-Equipotentialfläche - dem Geoid. Das Geoid der Erde, entlang eines Meridians betrachtet, entspricht einem eindimensionalen, periodischen Signal, das, wie aus der Signalverarbeitung bekannt ist, durch ein Linienspektrum definiert wird. Die Transformation in ein Spektrum wird durch die Orthogonalität der Basisfunktionen ermöglicht. Werden nicht alle Basisfunktionen, die ein Signal synthetisieren, analysiert, so kommt es auf Grund des Aliasing-Effekts als Folge der Abtastung des kontinuierlichen Signals wie auch durch Leakage zu Verzerrungen des Spektrums. Leakage entsteht entweder durch unregelmäßig verteilte Daten oder durch ein Analyseintervall das nicht der Periode des Signals entspricht. Die Konsequenz beider Effekte ist ein Verlust der Orthogonalität der Basis. Unterschiedliche Gruppen von Basisfunktionen z.B. trigonometrische Funktionen, Legendre Polynome stellen dabei individuelle Anforderungen an die Datenverteilung. Die Signalanalyse beschäftigt sich mit der Bestimmung der Basisfunktionskoeffizienten, die das Signal definieren. Die Anwendung der Ausgleichsrechnung als Identifikationsprozess ermöglicht die exakte Analyse des Signals durch entsprechende Wahl einer Gewichtsmatrix, deren Verwendung entweder als Filterungsprozess oder als Orthogonalisierungsstrategie zu verstehen ist.
Automationsgestützte Aerotriangulation basierend auf einem Multibild-Matching-Ansatz
Institut für Photgrammetrie und Fernerkundung, TU Wien, 2001. Begutachter: o.Univ.Prof. Dr. Karl Kraus, Betreuer: Dipl.-Ing. Franz Rottensteiner.
Kurzfassung/Abstract
Die Aerotriangulation hat sich als leistungsfähiges Verfahren der Bestimmung von Orientierungsparametern und der photogrammetrischen Punktbestimmung mit hoher Genauigkeit entwickelt. Während der rechnerische Teil der Bündelblockausgleichung schon lange Zeit automatisch abläuft, so werden heute immer öfter Systeme benutzt, die diezeitaufwendige Messung von Verknüpfungspunkten durch Automation mit Hilfe von Bildzuordnungs-(Matching-) Verfahren unterstützen. Dabei stehen Zuverlässigkeit und Wirtschaftlichkeit im Vordergrund. Im Zuge dieser Arbeit wurde ein Mehrbild-Zuordnungsverfahren auf Basis der Programmbibliothek des Instituts für Photogrammetrie und Fernerkundung (IPF) an der Technischen Universität Wien in einer objektorientierten Programmumgebung implementiert. Dieses Bildzuordnungsverfahren mit dem Namen Multiphoto Geometrically Constrained Matching (MPGC), das von E. Baltsavias an der ETH Zürich entwickelt wurde, ist eine Erweiterung der flächenbasierten Least Squares Matching-Methode auf Multibildfähigkeit und die Ausnützung a priori bekannter geometrischer Eigenschaften. Der Ablauf der automationsgestützten Aerotriangulation, die in dieser Arbeit mit Hilfe des MPGC-Algorithmus entwickelt wurde, beginnt nach Photoimport und Berechnung der Bildpyramiden mit der manuellen Messung der Rahmenmarken für die innere Orientierung der Bilder und für die Bestimmung der Näherungen für die äußeren Orientierungsparameter. Die Bildpunkte (Paß- und Verknüpfungspunkte) werden im Referenzbild manuell genau definiert und in einem Suchbild zur Berechnung der Näherungen für die Unbekannten des MPGC-Algorithmus nur näherungsweise manuell vorgegeben. Die automatische Punktübertragung mittels des MPGC-Algorithmus beginnt auf einem wählbaren Pyramidenniveau. Anschließend wird eine Aerotriangulation berechnet und dabei werden grobe Fehler mittels robuster Schätzung und Data Snooping eliminiert. Die Aerotriangulation liefert Punkte, die zur Berechnung der Näherungen für die Unbekannten des MPGC-Verfahrens auf dem genaueren Pyramidenniveau herangezogen werden. Dieser Prozeß wird nun solange wiederholt, bis die ausgeglichenen Koordinaten der Paß- und Verknüpfungspunkte sowie Orientierungsparameter aller Bilder auf dem genauesten Pyramidenniveau vorliegen. Das in dieser Arbeit implementierte Bildzuordnungsverfahren wurde anhand des Testblockes Forssa (Bildmaßstab 1 : 4000) der Europäischen Organisation für Experimentelle Photogrammetrische Studien (OEEPE) getestet und analysiert. Die Aerotriangulation lieferte als Ergebnis für die Verknüpfungspunkte Genauigkeiten von ±8 cm in der Lage und ±11 cm in der Höhe. Diese Zahlen sind jedoch nicht repräsentativ, weil der Testblock zu wenige und vor allem ungeeignete Verknüpfungspunkte enthielt. Daher wurden zusätzlich auf Basis bekannter Orientierungen fünf für das Matching geeignete Punkte gemessen, über mehrere Pyramidenniveaus zugeordnet und trianguliert. Sie erreichten eine Genauigkeit in der Lage von ±5 cm und in der Höhe von ±6 cm.
Die Aerotriangulation hat sich als leistungsfähiges Verfahren der Bestimmung von Orientierungsparametern und der photogrammetrischen Punktbestimmung mit hoher Genauigkeit entwickelt. Während der rechnerische Teil der Bündelblockausgleichung schon lange Zeit automatisch abläuft, so werden heute immer öfter Systeme benutzt, die diezeitaufwendige Messung von Verknüpfungspunkten durch Automation mit Hilfe von Bildzuordnungs-(Matching-) Verfahren unterstützen. Dabei stehen Zuverlässigkeit und Wirtschaftlichkeit im Vordergrund. Im Zuge dieser Arbeit wurde ein Mehrbild-Zuordnungsverfahren auf Basis der Programmbibliothek des Instituts für Photogrammetrie und Fernerkundung (IPF) an der Technischen Universität Wien in einer objektorientierten Programmumgebung implementiert. Dieses Bildzuordnungsverfahren mit dem Namen Multiphoto Geometrically Constrained Matching (MPGC), das von E. Baltsavias an der ETH Zürich entwickelt wurde, ist eine Erweiterung der flächenbasierten Least Squares Matching-Methode auf Multibildfähigkeit und die Ausnützung a priori bekannter geometrischer Eigenschaften. Der Ablauf der automationsgestützten Aerotriangulation, die in dieser Arbeit mit Hilfe des MPGC-Algorithmus entwickelt wurde, beginnt nach Photoimport und Berechnung der Bildpyramiden mit der manuellen Messung der Rahmenmarken für die innere Orientierung der Bilder und für die Bestimmung der Näherungen für die äußeren Orientierungsparameter. Die Bildpunkte (Paß- und Verknüpfungspunkte) werden im Referenzbild manuell genau definiert und in einem Suchbild zur Berechnung der Näherungen für die Unbekannten des MPGC-Algorithmus nur näherungsweise manuell vorgegeben. Die automatische Punktübertragung mittels des MPGC-Algorithmus beginnt auf einem wählbaren Pyramidenniveau. Anschließend wird eine Aerotriangulation berechnet und dabei werden grobe Fehler mittels robuster Schätzung und Data Snooping eliminiert. Die Aerotriangulation liefert Punkte, die zur Berechnung der Näherungen für die Unbekannten des MPGC-Verfahrens auf dem genaueren Pyramidenniveau herangezogen werden. Dieser Prozeß wird nun solange wiederholt, bis die ausgeglichenen Koordinaten der Paß- und Verknüpfungspunkte sowie Orientierungsparameter aller Bilder auf dem genauesten Pyramidenniveau vorliegen. Das in dieser Arbeit implementierte Bildzuordnungsverfahren wurde anhand des Testblockes Forssa (Bildmaßstab 1 : 4000) der Europäischen Organisation für Experimentelle Photogrammetrische Studien (OEEPE) getestet und analysiert. Die Aerotriangulation lieferte als Ergebnis für die Verknüpfungspunkte Genauigkeiten von ±8 cm in der Lage und ±11 cm in der Höhe. Diese Zahlen sind jedoch nicht repräsentativ, weil der Testblock zu wenige und vor allem ungeeignete Verknüpfungspunkte enthielt. Daher wurden zusätzlich auf Basis bekannter Orientierungen fünf für das Matching geeignete Punkte gemessen, über mehrere Pyramidenniveaus zugeordnet und trianguliert. Sie erreichten eine Genauigkeit in der Lage von ±5 cm und in der Höhe von ±6 cm.
Bewegungsmessungen am Dösener Blockgletscher 1999
Institut für Angewandte Geodäsie, Abteilung für Positionierung und Navigation, TU Graz, 2000. Betreuer: Univ.Prof.Dipl.-Ing.Dr.techn. Bernhard Hofmann-Wellenhof
Kurzfassung/Abstract
Aus photogrammetrischen Auswertungen ist bekannt, dass sich die Fließgeschwindigkeit des Dösener Blockgletschers an der Stirn von 21 cm pro Jahr (cm/a) zwischen 1954 und 1969 bis auf 12 cm/a Anfang der neunziger Jahre verringert hat. Geodätische Messungen werden seit 1995 durchgeführt. Dabei ist eine Steigerung der Fließgeschwindigkeit zu beobachten, die 1998 etwa den Werten der Epoche 1954-1969 entspricht. Die betrachtete Epoche 1998-1999 zeigt jedoch eine leichte Verringerung der Gesamtfließgeschwindigkeit. Generell kann eine Zunahme der Gesamtfließbewegung bei einer Temperaturerhöhung festgestellt werden. Zur beseren Erforschung war auch eine monatliche Erfassung der Bewegung wünschenswert. Diese wurde erstmals in den Sommermonaten 1999 durchgeführt. Dabei wurden Koordinaten mit einer Genauigkeit von ±1-2 cm ermittelt. Die monatlichen Bewegungen der Kontrollpunkte liegen teilweise im Bereich der Messgenauigkeit und müssen daher mit einer gewissen Vorsicht betrachtet werden. Sie sind im oberen Bereich des Blockgletschers im Vergleich zur Gesamtjahresbewegung schneller und im unteren Bereich langsamer. Dies ergibt einen ziehharmonikaähnlichen Charakter der Sommerbewegung im Vergleich zur Jahresbewegung. Eine ähnliche Erscheinung konnte auch schon am Blockgletscher Gruben beobachtet werden.
Aus photogrammetrischen Auswertungen ist bekannt, dass sich die Fließgeschwindigkeit des Dösener Blockgletschers an der Stirn von 21 cm pro Jahr (cm/a) zwischen 1954 und 1969 bis auf 12 cm/a Anfang der neunziger Jahre verringert hat. Geodätische Messungen werden seit 1995 durchgeführt. Dabei ist eine Steigerung der Fließgeschwindigkeit zu beobachten, die 1998 etwa den Werten der Epoche 1954-1969 entspricht. Die betrachtete Epoche 1998-1999 zeigt jedoch eine leichte Verringerung der Gesamtfließgeschwindigkeit. Generell kann eine Zunahme der Gesamtfließbewegung bei einer Temperaturerhöhung festgestellt werden. Zur beseren Erforschung war auch eine monatliche Erfassung der Bewegung wünschenswert. Diese wurde erstmals in den Sommermonaten 1999 durchgeführt. Dabei wurden Koordinaten mit einer Genauigkeit von ±1-2 cm ermittelt. Die monatlichen Bewegungen der Kontrollpunkte liegen teilweise im Bereich der Messgenauigkeit und müssen daher mit einer gewissen Vorsicht betrachtet werden. Sie sind im oberen Bereich des Blockgletschers im Vergleich zur Gesamtjahresbewegung schneller und im unteren Bereich langsamer. Dies ergibt einen ziehharmonikaähnlichen Charakter der Sommerbewegung im Vergleich zur Jahresbewegung. Eine ähnliche Erscheinung konnte auch schon am Blockgletscher Gruben beobachtet werden.
Bestimmung einer Fahrzeugtrajektorie mit GPS und Map-Aiding
Institut für Theoretische Geodäsie Abteilung für Mathematische Geodäsie und Geoinformatik, 2001. Betreuer: Ass.Prof. Dipl.-Ing. Dr.techn. Manfred Wieser
Kurzfassung/Abstract
Das Interesse an der Fahrzeugnavigation im allgemeinen und der Trajektorienbestimmung eines Fahrzeugs im besonderen ist stark im Steigen begriffen. Mitverantwortlich für den rasanten Fortschritt ist die günstige Entwicklung auf dem GPS-Sektor. Die Signalabschattungen durch hohe Gebäude im urbanen Bereich stellen dabei nach wie vor das Hauptproblem dar. In diesem Zusammenhang werden an die Signalverarbeitung besondere Anforderungen gestellt. Um die Eignung verschiedener mathematischer Verfahren zu testen, wurden im Stadtgebiet von Graz mehrere Fahrten absolviert. Ein im Fahrzeug mitgeführter GPS-Empfänger zeichnete die Messdaten in Form von Pseudostrecken auf. Ziel der Auswertung war es, eine Trajektorie zu berechnen, welche möglichst gut mit der wahren Fahrtroute zusammenpasst. Die Anwendung des Kalmanfilters ermöglichte eine starke Verbesserung der Resultate gegenüber einer reinen GPS-Auswertung. Auch die Vorteile, die sich durch differentielles GPS und den Wegfall von SA (selective availability) ergeben, werden diskutiert. Zusätzlich wurden aus der digitalen Straßenkarte von Graz Richtungsinformationen abgeleitet und gemeinsam mit den GPS-Messungen gefiltert. Dieses als Map-Aiding bekannte Verfahren verhilft schließlich zu genaueren und zuverlässigeren Ergebnissen, vor allem im Fall ungenügender GPS-Verfügbarkeit.
Das Interesse an der Fahrzeugnavigation im allgemeinen und der Trajektorienbestimmung eines Fahrzeugs im besonderen ist stark im Steigen begriffen. Mitverantwortlich für den rasanten Fortschritt ist die günstige Entwicklung auf dem GPS-Sektor. Die Signalabschattungen durch hohe Gebäude im urbanen Bereich stellen dabei nach wie vor das Hauptproblem dar. In diesem Zusammenhang werden an die Signalverarbeitung besondere Anforderungen gestellt. Um die Eignung verschiedener mathematischer Verfahren zu testen, wurden im Stadtgebiet von Graz mehrere Fahrten absolviert. Ein im Fahrzeug mitgeführter GPS-Empfänger zeichnete die Messdaten in Form von Pseudostrecken auf. Ziel der Auswertung war es, eine Trajektorie zu berechnen, welche möglichst gut mit der wahren Fahrtroute zusammenpasst. Die Anwendung des Kalmanfilters ermöglichte eine starke Verbesserung der Resultate gegenüber einer reinen GPS-Auswertung. Auch die Vorteile, die sich durch differentielles GPS und den Wegfall von SA (selective availability) ergeben, werden diskutiert. Zusätzlich wurden aus der digitalen Straßenkarte von Graz Richtungsinformationen abgeleitet und gemeinsam mit den GPS-Messungen gefiltert. Dieses als Map-Aiding bekannte Verfahren verhilft schließlich zu genaueren und zuverlässigeren Ergebnissen, vor allem im Fall ungenügender GPS-Verfügbarkeit.