- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2003
Abschlussarbeiten 2003
Generierung digitaler Geländemodelle aus hochauflösenden optischen Satellitenbilddaten
Institut für Geodäsie, Abteilung für Photogrammetrie und Fernerkundung, Technische Universität Graz, 2003. Begutachter und Betreuer: O.Univ.-Prof., Dr. Dipl.-Forstwirt Mathias Schardt.
Kurzfassung/Abstract
Für hochauflösende stereoskopische Satellitendaten wurde das Potential zur automatischen Rekonstruktion von 3D-Informationen untersucht. Dafür standen EROS-Stereodaten in moderatem und alpinem Gelände sowie IKONOS-Stereobilder, welche ebenes und bergiges Gelände aufweisen, zur Verfügung. Für die EROS-Daten waren die Sensorparameter erhältlich, während für IKONOS rationale Polynomkoeffizienten zur Abbildungsmodellierung verwendet wurden. Somit konnte mit Hilfe von Passpunkten eine a priori Aufsetzgenauigkeit für die Stereobildpaare angegeben werden. Zur Gewinnung der 3D-Information diente die automatische Bildkorrelation, für die es verschiedene Verfahren gibt. Diese wurden getestet und die für hochauflösende Satellitendaten am besten geeignete Methode bestimmt. Nach der Korrelation wurden letztlich für die vorliegenden Stereobildpaare digitale Geländemodelle hergeleitet und deren Qualität untersucht. Dabei wurde besonderes Augenmerk auf die Detailliertheit der Oberflächenstrukturen, insbesondere auf Bäume und Gebäude, gelegt.
Für hochauflösende stereoskopische Satellitendaten wurde das Potential zur automatischen Rekonstruktion von 3D-Informationen untersucht. Dafür standen EROS-Stereodaten in moderatem und alpinem Gelände sowie IKONOS-Stereobilder, welche ebenes und bergiges Gelände aufweisen, zur Verfügung. Für die EROS-Daten waren die Sensorparameter erhältlich, während für IKONOS rationale Polynomkoeffizienten zur Abbildungsmodellierung verwendet wurden. Somit konnte mit Hilfe von Passpunkten eine a priori Aufsetzgenauigkeit für die Stereobildpaare angegeben werden. Zur Gewinnung der 3D-Information diente die automatische Bildkorrelation, für die es verschiedene Verfahren gibt. Diese wurden getestet und die für hochauflösende Satellitendaten am besten geeignete Methode bestimmt. Nach der Korrelation wurden letztlich für die vorliegenden Stereobildpaare digitale Geländemodelle hergeleitet und deren Qualität untersucht. Dabei wurde besonderes Augenmerk auf die Detailliertheit der Oberflächenstrukturen, insbesondere auf Bäume und Gebäude, gelegt.
Erdschwerefeldbestimmung über das Energieintegral, unter Berücksichtigung nicht-konservativer Kräfte
Institut für Geodäsie, Abteilung für Theoretische Geodäsie, Technische Universität Graz, 2003. Begutachter und Betreuer: Ao.Univ. Prof. Mag. Dr. R. Pail.
Kurzfassung/Abstract
Die Satellitenmission GOCE der ESA, mit einem geplanten Start im Jahr 2006, ist der präzisen Modellierung des Erdschwerefeldes gewidmet. Die Schwerefeldlösung ist eine kombinierte Lösung aus high-low satellite-to-satellite tracking (SST) und gravity gradiometry (SGG) Daten. Diese Arbeit beschäftigt sich mit dem Energieintegral-Ansatz, der eine Erdschwerefeldbestimmung aus SST Daten ermöglicht. Das Energieintegral basiert auf dem Energieerhaltungssatz, welcher aussagt, dass die Summe der gesuchten potentiellen Energie und der kinetischen Energie konstant ist. Da auf den Satelliten auch nicht-konservative Kräfte, wie z.B. Luftwiederstand, Sonnenstrahlungsdruck, etc. wirken, die das System stören, müssen diese in dem Modell berücksichtigt werden. Im Zuge dessen wurden mehrere Integrationsmethoden implementiert. Um die Güte der Resultate des Energieintegrals zu demonstrieren, wurde es auf simulierte Daten angewendet, wobei in diesem Fall auch die nicht konservativen Kräfte simuliert wurden. In einem zweiten Schritt wurden "echte" SST Daten, sowie echte Akzelerometerdaten aus der Satellitenmission CHAMP (Challenging Minisatellite Payload for Geophysical Research and Applications), verwendet.
Die Satellitenmission GOCE der ESA, mit einem geplanten Start im Jahr 2006, ist der präzisen Modellierung des Erdschwerefeldes gewidmet. Die Schwerefeldlösung ist eine kombinierte Lösung aus high-low satellite-to-satellite tracking (SST) und gravity gradiometry (SGG) Daten. Diese Arbeit beschäftigt sich mit dem Energieintegral-Ansatz, der eine Erdschwerefeldbestimmung aus SST Daten ermöglicht. Das Energieintegral basiert auf dem Energieerhaltungssatz, welcher aussagt, dass die Summe der gesuchten potentiellen Energie und der kinetischen Energie konstant ist. Da auf den Satelliten auch nicht-konservative Kräfte, wie z.B. Luftwiederstand, Sonnenstrahlungsdruck, etc. wirken, die das System stören, müssen diese in dem Modell berücksichtigt werden. Im Zuge dessen wurden mehrere Integrationsmethoden implementiert. Um die Güte der Resultate des Energieintegrals zu demonstrieren, wurde es auf simulierte Daten angewendet, wobei in diesem Fall auch die nicht konservativen Kräfte simuliert wurden. In einem zweiten Schritt wurden "echte" SST Daten, sowie echte Akzelerometerdaten aus der Satellitenmission CHAMP (Challenging Minisatellite Payload for Geophysical Research and Applications), verwendet.
Optimum weighting of GOCE high-low satellite-to-satellite tracking and satellite gravity gradiometry data
Institut für Geodäsie, Abteilung für Theoretische Geodäsie, Technische Universität Graz, 2003. Begutachter und Betreuer: Ao.Univ. Prof. Mag. Dr. R. Pail.
Kurzfassung/Abstract
Die Satellitenmission GOCE der ESA beruht auf einer Sensorfusion: Während hl-SST (high-low satellite-to-satellite tracking) Informationen über die niedrigen Frequenzen des Schwerefeldes liefert, ermöglicht SGG (satellite gravity gradiometry) die Bestimmung der mittleren und hohen Frequenzen. Die Addition der Normalgleichungsmatrizen beider Komponenten führt zur Bestimmung der kombinierten Lösung normierter Kugelfunktionskoeffizienten. Da unterschiedliche Genauigkeiten der Messungen bei der einfachen Addition unberücksichtigt bleiben, repräsentiert diese Lösung meist nicht die optimale Parameterschätzung. Diese Diplomarbeit beschäftigt sich mit der optimalen Gewichtung von hl-SST und SGG, um die optimale Koeffizientenlösung zu bestimmen. Dazu wurden zwei unterschiedliche Strategien untersucht: Die Varianzkomponentenschätzung, welche auf der Berechnung von Verbesserungen basiert, und die Parameter-Kovarianz Methode, welche die Parameterdifferenzen mit den zugehörigen Kovarianzen vergleicht, um die optimalen Gewichte zu ermitteln. Beide Methoden sind gekennzeichnet durch die Schätzung der Gewichte anhand der Genauigkeiten der Beobachtungen, was im Allgemeinen in annähernd identen optimalen Lösungen resultiert. Aufgrund der Orbitkonfiguration von GOCE treten an den Polen Datenlöcher auf, welche sich bei Modellen höheren Grades durch schlecht bestimmte zonale und nahe-zonale Koeffizienten kennzeichnen. Eine Erweiterung der beiden Ansätze um Regularisierung wird notwendig, wobei sich optimale Gewichtung und Regularisierung gegenseitig beeinflussen.
Die Satellitenmission GOCE der ESA beruht auf einer Sensorfusion: Während hl-SST (high-low satellite-to-satellite tracking) Informationen über die niedrigen Frequenzen des Schwerefeldes liefert, ermöglicht SGG (satellite gravity gradiometry) die Bestimmung der mittleren und hohen Frequenzen. Die Addition der Normalgleichungsmatrizen beider Komponenten führt zur Bestimmung der kombinierten Lösung normierter Kugelfunktionskoeffizienten. Da unterschiedliche Genauigkeiten der Messungen bei der einfachen Addition unberücksichtigt bleiben, repräsentiert diese Lösung meist nicht die optimale Parameterschätzung. Diese Diplomarbeit beschäftigt sich mit der optimalen Gewichtung von hl-SST und SGG, um die optimale Koeffizientenlösung zu bestimmen. Dazu wurden zwei unterschiedliche Strategien untersucht: Die Varianzkomponentenschätzung, welche auf der Berechnung von Verbesserungen basiert, und die Parameter-Kovarianz Methode, welche die Parameterdifferenzen mit den zugehörigen Kovarianzen vergleicht, um die optimalen Gewichte zu ermitteln. Beide Methoden sind gekennzeichnet durch die Schätzung der Gewichte anhand der Genauigkeiten der Beobachtungen, was im Allgemeinen in annähernd identen optimalen Lösungen resultiert. Aufgrund der Orbitkonfiguration von GOCE treten an den Polen Datenlöcher auf, welche sich bei Modellen höheren Grades durch schlecht bestimmte zonale und nahe-zonale Koeffizienten kennzeichnen. Eine Erweiterung der beiden Ansätze um Regularisierung wird notwendig, wobei sich optimale Gewichtung und Regularisierung gegenseitig beeinflussen.
Snakes für Aufgaben der digitalen Photogrammetrie und Topographie
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2003. 1. Begutachter: O.Univ. Prof. Dr.-Ing. K. Kraus, Institut für Photogrammetrie und Fernerkundung, 2. Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr.techn. H. Bischof, Institut für Rechnergestützte Automation.
Kurzfassung/Abstract
Snakes gelten in der Computer Vision als ein allgemein bekanntes Verfahren zum automatisierten (halbautomatischen) Extrahieren von Kanten und Linien in digitalen Bildern. Ausgehend von einer groben Näherung der Form der gesuchten Kurve und ihrer Lage im Bild verbessert die Snake ihre Form und Lage durch Optimierung eines komplexen Energiefunktionals. Dabei soll sie die gesuchte Kurve detailgetreu nachbilden. Die Stärken von Snakes liegen in ihrer Robustheit gegenüber Rauschen im Bild und Lücken in der abgebildeten Kurve. Zahlreiche kritische Konstellationen wurden allerdings publiziert, die ihr Konvergenzverhalten und ihre Robustheit beeinträchtigen. Es soll beurteilt werden inwieweit sich Snakes auch angesichts ihrer Schwächen für Aufgaben in der digitalen Photogrammetrie und Topographie eignen. Schwächen der Methode waren für viele dem ursprünglichen Aufsatz folgende Publikationen Anlass zur Verbesserung der Methode. Ein Schwerpunkt dieser Arbeit ist eine umfassende Zusammenstellung und Beurteilung erweiterter und verbesserter Ansätze. Weiters werden einige im Rahmen der Dissertation erarbeitete Bausteine zu einem für die jeweilige Anwendung optimalen Ansatz vorgestellt. Die Probleme der Snakes können auf drei verschiedene Arten gelöst werden: Wahl des Optimierungsalgorithmus: Fünf verschiedene Optimierungsmethoden werden präsentiert. Neben der ursprünglichen Lösung über Variationsrechnung werden die Lösungen mittels dynamischer Programmierung, mittels kleinster-Quadrate-Ausgleichung, mittels eines Level-Set-Ansatzes sowie mittels Simulated Annealing untersucht. Anpassung der Energiefunktion: Die Energiefunktion besteht aus mehreren Termen für unterschiedliche Zwecke. Die vielfältigen publizierten Formulierungen der Energieterme werden analysiert. Insbesondere die internen Energieterme, die für eine glatte Form der Snake verantwortlich sind, werden kritisch betrachtet. Neue Formulierungen werden vorgeschlagen, die das Schrumpfen der Kurve unterbinden sollen. Einsatz einer speziellen Anwendungsstrategie: Hierarchische Strategien, eine Strategie vom Groben ins Feine oder die Optimierung zwischen zwei Punkten wurden in der Literatur bereits vorgeschlagen. Im Rahmen dieser Arbeit wurden andere Strategien entwickelt: die Unterteilung in Segmente sowie die Verwendung zweier Snakes (Twin Snakes). Die Arbeit schließt mit einigen möglichen Anwendungen von Snakes im Bereich der digitalen Photogrammetrie und der Topographie. Neben der Kanten- und Linienextraktion im dreidimensionalen Raum wird der Einsatz von Snakes für die Schnittliniensuche bei der Orthophotomosaikierung sowie für die Detektion von Kanten in Geländemodellen vorgeschlagen.
Snakes gelten in der Computer Vision als ein allgemein bekanntes Verfahren zum automatisierten (halbautomatischen) Extrahieren von Kanten und Linien in digitalen Bildern. Ausgehend von einer groben Näherung der Form der gesuchten Kurve und ihrer Lage im Bild verbessert die Snake ihre Form und Lage durch Optimierung eines komplexen Energiefunktionals. Dabei soll sie die gesuchte Kurve detailgetreu nachbilden. Die Stärken von Snakes liegen in ihrer Robustheit gegenüber Rauschen im Bild und Lücken in der abgebildeten Kurve. Zahlreiche kritische Konstellationen wurden allerdings publiziert, die ihr Konvergenzverhalten und ihre Robustheit beeinträchtigen. Es soll beurteilt werden inwieweit sich Snakes auch angesichts ihrer Schwächen für Aufgaben in der digitalen Photogrammetrie und Topographie eignen. Schwächen der Methode waren für viele dem ursprünglichen Aufsatz folgende Publikationen Anlass zur Verbesserung der Methode. Ein Schwerpunkt dieser Arbeit ist eine umfassende Zusammenstellung und Beurteilung erweiterter und verbesserter Ansätze. Weiters werden einige im Rahmen der Dissertation erarbeitete Bausteine zu einem für die jeweilige Anwendung optimalen Ansatz vorgestellt. Die Probleme der Snakes können auf drei verschiedene Arten gelöst werden: Wahl des Optimierungsalgorithmus: Fünf verschiedene Optimierungsmethoden werden präsentiert. Neben der ursprünglichen Lösung über Variationsrechnung werden die Lösungen mittels dynamischer Programmierung, mittels kleinster-Quadrate-Ausgleichung, mittels eines Level-Set-Ansatzes sowie mittels Simulated Annealing untersucht. Anpassung der Energiefunktion: Die Energiefunktion besteht aus mehreren Termen für unterschiedliche Zwecke. Die vielfältigen publizierten Formulierungen der Energieterme werden analysiert. Insbesondere die internen Energieterme, die für eine glatte Form der Snake verantwortlich sind, werden kritisch betrachtet. Neue Formulierungen werden vorgeschlagen, die das Schrumpfen der Kurve unterbinden sollen. Einsatz einer speziellen Anwendungsstrategie: Hierarchische Strategien, eine Strategie vom Groben ins Feine oder die Optimierung zwischen zwei Punkten wurden in der Literatur bereits vorgeschlagen. Im Rahmen dieser Arbeit wurden andere Strategien entwickelt: die Unterteilung in Segmente sowie die Verwendung zweier Snakes (Twin Snakes). Die Arbeit schließt mit einigen möglichen Anwendungen von Snakes im Bereich der digitalen Photogrammetrie und der Topographie. Neben der Kanten- und Linienextraktion im dreidimensionalen Raum wird der Einsatz von Snakes für die Schnittliniensuche bei der Orthophotomosaikierung sowie für die Detektion von Kanten in Geländemodellen vorgeschlagen.
Geometrie, Bedingungen und Berechnung des Trifokal-Tensors
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2003. 1. Begutachter: Prof. Dr.-Ing. Wolfgang Förstner Institut für Photogrammetrie, Universität Bonn; 1.Prüfer: O.Univ. Prof. Dr.-Ing. K. Kraus, Institut für Photogrammetrie und Fernerkundung, 2.Begutachter und 2.Prüfer: O.Univ.Prof. Mag. Dr. Helmut Pottmann, Institut für Geometrie.
Kurzfassung/Abstract
Das Thema dieser Arbeit ist der Trifokal-Tensor, der die relative Orientierung (oder Epipolargeometrie) von drei unkalibrierten Bildern beschreibt. In diesem Sinne ist der Tensor eine Erweiterung der Fundamental-Matrix, welche die relative Orientierung von zwei unkalibrierten Bildern beschreibt. Der Trifokal-Tensor ist ein homogener Tensor der Stufe 3; dem gemäß kann er als 3×3×3 Zahlenwürfel dargestellt werden. Aufgrund der folgenden Eigenschaften ist dieser Tensor von besonderem Interesse: Der Trifokal-Tensor kann in linearer Weise aus gegebenen Punkt- und Linienkorrespondenzen in drei Bildern bestimmt werden; letztere sind für die Bestimmung der Fundamental-Matrix nicht verwendbar. Aus diesem Grund stellt der Trifokal-Tensor ein Werkzeug für die Bestimmung der relativen Orientierung von drei Bildern dar,für das keine Näherungswerte benötigt werden. Diese so gefundene Orientierung kann dann als Startwert für eine anschließende Bündelblockausgleichung verwendet werden. Weiters ist die Wahrscheinlichkeit auf eine gefährliche Konfiguration zu treffen, die keine eindeutige Bestimmung des Tensors erlaubt, wesentlich geringer als für zwei Bilder und ihre Fundamental-Matrix. Die einzige praktisch relevante gefährliche Situation entsteht nur dann, wenn alle korrespondierenden Bildpunkte und -linien von einer gemeinsamen Ebene stammen. Nachdem der Trifokal-Tensor bestimmt wurde, können die Basisvektoren und Rotationsmatrizen der relativen Orientierung der drei Bilder einfach extrahiert werden – wenn die innere Orientierung bekannt ist. Ist diese unbekannt, aber ident für alle drei Bilder, so kann diese gemeinsame innere Orientierung ebenfalls im Allgemeinen bestimmt werden. Sind n>3 Bilder gegeben, so werden mehrere unzusammenhängende Trifokal-Tensoren berechnet. Bevor alle n Bilder gemeinsam weiterverarbeitet werden können, müssen die einzelnen unzusammenhängenden Basisvektoren und Rotationsmatrizen in ein gemeinsames System transformiert werden. Die sogenannten Transferbeziehungen, die sich aus dem Trifokal-Tensor ableiten lassen, können verwendet werden, um den Inhalt (Punkte und Geraden) von zwei Quellbildern in ein anderes Bild – das Zielbild – zu transferieren. Falls dieses Zielbild eine echtes Bild ist, dann können die transferierten Positionen verwendet werden um ein Matching-Verfahren zu starten. Falls dieses Zielbild eine virtuelles Bild mit gegebener Orientierung darstellt, dann kann der Inhalt dieses neuen Bildes mit Hilfe der Transferrelationen Pixel für Pixel aus den beiden Quellbildern aufgebaut werden. Dieser Vorgang wird im Englischen als novel view synthesis oder image formation bezeichnet. In dieser Arbeit wird der erste Punkt – die Berechnung des Trifokal-Tensors – näher behandelt. Jedes Triple von korrespondierenden Punkten liefert 4 Gleichungen, die sogenannten Trilinearitäten, welche linear in den 27 Tensorelementen sind. Jedes Tripel von korrespondierenden Geraden liefert 2 lineare Gleichungen. Demzufolge benötigt man mindestens 7 Punkte, 13 Geraden oder eine passende Kombination um den Trifokal-Tensor direkt bestimmen zu können. Mit dieser direkten linearen Lösung für den Trifokal-Tensor sind allerdings ein paar Nachteile verbunden. Der Trifokal-Tensor besteht zwar aus 27 Elementen, jedoch besitzt er nur 18 Freiheitsgrade. Aus diesem Grund müssen die Tensorelemente 8 interne Bedingungen erfüllen, neben der Festlegung des Tensormaßstabes, um einen gültigen Trifokal-Tensor zu repräsentieren. Diese Bedingungen werden im Allgemeinen von der direkten linearen Lösung nicht erfüllt. Ein weiterer Nachteil ist, dass die direkte lineare Lösung nicht die Fehler in den originalen Bildbeobachtungen minimiert (die sogenannten Residuen), sondern den sogenannten algebraischen Fehler. Diese Nachteile kann man beseitigen, wenn man einen gültigen Trifokal-Tensor über die Minimierung der Bildresiduen berechnet. Das sogenannte Gauß-Helmert Modell stellt eine allgemeine Umgebung für derartige bedingte Ausgleichungsaufgaben dar. Die Berechnung eines gültigen Trifokal-Tensor im Gauß-Helmert Modell kann in zwei Arten realisiert werden: Indem der Trifokal-Tensor durch seine 27 Elemente repräsentiert wird und die 8 internen Bedingungen gemeinsam mit der Festlegung des Maßstabes zusätzlich ins Gauß-Helmert Modell aufgenommen werden; oder indem der Trifokal-Tensor durch eine andere alternative Parametrisierung, die genau 18 Freiheitsgrade hat, dargestellt wird. Verschiedene Gruppen von Bedingungen und unterschiedliche Parametrisierungen wurden in der Vergangenheit publiziert, und die wichtigsten davon werden in dieser Arbeit zusammengefasst. Die meisten dieser Bedingungen und Parametrisierungen leiten sich aus den sogenannten Tensorschnitten ab. Dabei handelt es sich um 3×3 Matrizen, die aus dem Tensor sozusagen herausgeschnitten werden können. Aufgrund ihrer hohen Bedeutung werden diese Tensorschnitte in dieser Arbeit sehr genau untersucht. Mit ihrer Hilfe werden zwei neue Gruppen von Bedingungen, die auch eine einfache geometrische Interpretation erlauben, und eine neue alternative Parametrisierung für den Trifokal-Tensor hergeleitet. Um nun einen gültigen Trifokal-Tensor im Gauß-Helmert Modell über die Minimierung der Bildresiduen berechnen zu können, ist es wichtig eine konsistente Repräsentierung für den Tensor zu besitzen. Die von Hartley vorgeschlagene Parametrisierung mit Hilfe der Projektionsmatrizen ist die einfachste Möglichkeit für solch eine konsistente Repräsentierung. Diese Parametrisierung ist anwendbar solange (i) nicht alle drei Projektionszentren zusammenfallen und (ii) das erste Projektionszentrum verschieden von den anderen beiden ist. Wenn alle Korrespondenzen in den drei Bildern von einer gemeinsamen Ebene stammen, dann kann der Trifokal-Tensor nicht eindeutig bestimmt werden. Aus diesem Grund wird in dieser Arbeit die minimaler Dicke der Objektpunkte untersucht; d.h. was ist die minimal notwendige Abweichung von einer gemeinsamen Ebene, sodass der Trifokal-Tensor immer noch erfolgreich berechnet werden kann? Diese Untersuchung wird empirisch anhand verschiedener Bildkonfigurationen und unterschiedlicher Punktanzahl durchgeführt. In diesen Untersuchungen werden weiters die Unterschiede im berechneten Trifokal-Tensor behandelt, die entstehen wenn die internen Bedingungen berücksichtigt werden oder nicht, und wenn algebraische Fehler oder Bildresiduen minimiert werden. Die Erkenntnisse dieser empirischen Untersuchungen können wie folgt zusammengefasst werden: Für Bildkonfigurationen mit guter Geometrie, wie im Fall von konvergenten terrestrischen Aufnahmen oder im Fall von Luftbildern, stimmt die direkte lineare Lösung (algebraischer Fehler ohne Bedingungen) für den Tensor praktisch mit dem gültigen Tensor, der im Gauß-Helmert Modell (Bildresiduen mit Bedingungen) geschätzt wird überein. Für diese Konfigurationen mit guter Geometrie wurden auch erstaunlich geringe minimale Dicken bereits bei der Verwendung von 10 korrespondierenden Punkten gefunden. Nimmt die Anzahl der Punkte zu, so wird auch die minimale Dicke kleiner. Für die erwähnten Konfigurationen und 15 Punkttripel war die Berechung des Tensors für eine minimale Dicke von etwa 1% der Aufnahmeentfernung immer noch erfolgreich (Normalwinkel Aufnahmen und angenommenes Bildrauschen von 1 Pixel). Für Bildkonfigurationen mit schwacher Geometrie, wie im Fall von kollinearen Projektionszentren mit zusammenfallenden Blickrichtungen, ist eine deutlich größere Punkteanzahl ist notwendig und die direkte lineare Lösung versagt viel häufiger bei kleinen Objektdicken als die gültige Lösung übers Gauß-Helmert Modell. Diese empirischen Untersuchungen führen uns zum Schluss, dass für Konfigurationen mit guter Geometrie die Minimierung der Bildresiduen und die Berücksichtigung der internen Bedingungen eigentlich nicht notwendig ist – besonders dann nicht, wenn man nur an Näherungswerten für eine anschließende Bündelblockausgleichung interessiert ist. Benötigt man jedoch ein allgemeines Werkzeug, das Näherungswerte für die Bildorientierungen liefert und keine Einschränkungen an die Bildkonfiguration setzt und auch bei schwächerer Geometrie funktioniert, so ist die Lösung übers Gauß-Helmert Modell zu realisieren.
Das Thema dieser Arbeit ist der Trifokal-Tensor, der die relative Orientierung (oder Epipolargeometrie) von drei unkalibrierten Bildern beschreibt. In diesem Sinne ist der Tensor eine Erweiterung der Fundamental-Matrix, welche die relative Orientierung von zwei unkalibrierten Bildern beschreibt. Der Trifokal-Tensor ist ein homogener Tensor der Stufe 3; dem gemäß kann er als 3×3×3 Zahlenwürfel dargestellt werden. Aufgrund der folgenden Eigenschaften ist dieser Tensor von besonderem Interesse: Der Trifokal-Tensor kann in linearer Weise aus gegebenen Punkt- und Linienkorrespondenzen in drei Bildern bestimmt werden; letztere sind für die Bestimmung der Fundamental-Matrix nicht verwendbar. Aus diesem Grund stellt der Trifokal-Tensor ein Werkzeug für die Bestimmung der relativen Orientierung von drei Bildern dar,für das keine Näherungswerte benötigt werden. Diese so gefundene Orientierung kann dann als Startwert für eine anschließende Bündelblockausgleichung verwendet werden. Weiters ist die Wahrscheinlichkeit auf eine gefährliche Konfiguration zu treffen, die keine eindeutige Bestimmung des Tensors erlaubt, wesentlich geringer als für zwei Bilder und ihre Fundamental-Matrix. Die einzige praktisch relevante gefährliche Situation entsteht nur dann, wenn alle korrespondierenden Bildpunkte und -linien von einer gemeinsamen Ebene stammen. Nachdem der Trifokal-Tensor bestimmt wurde, können die Basisvektoren und Rotationsmatrizen der relativen Orientierung der drei Bilder einfach extrahiert werden – wenn die innere Orientierung bekannt ist. Ist diese unbekannt, aber ident für alle drei Bilder, so kann diese gemeinsame innere Orientierung ebenfalls im Allgemeinen bestimmt werden. Sind n>3 Bilder gegeben, so werden mehrere unzusammenhängende Trifokal-Tensoren berechnet. Bevor alle n Bilder gemeinsam weiterverarbeitet werden können, müssen die einzelnen unzusammenhängenden Basisvektoren und Rotationsmatrizen in ein gemeinsames System transformiert werden. Die sogenannten Transferbeziehungen, die sich aus dem Trifokal-Tensor ableiten lassen, können verwendet werden, um den Inhalt (Punkte und Geraden) von zwei Quellbildern in ein anderes Bild – das Zielbild – zu transferieren. Falls dieses Zielbild eine echtes Bild ist, dann können die transferierten Positionen verwendet werden um ein Matching-Verfahren zu starten. Falls dieses Zielbild eine virtuelles Bild mit gegebener Orientierung darstellt, dann kann der Inhalt dieses neuen Bildes mit Hilfe der Transferrelationen Pixel für Pixel aus den beiden Quellbildern aufgebaut werden. Dieser Vorgang wird im Englischen als novel view synthesis oder image formation bezeichnet. In dieser Arbeit wird der erste Punkt – die Berechnung des Trifokal-Tensors – näher behandelt. Jedes Triple von korrespondierenden Punkten liefert 4 Gleichungen, die sogenannten Trilinearitäten, welche linear in den 27 Tensorelementen sind. Jedes Tripel von korrespondierenden Geraden liefert 2 lineare Gleichungen. Demzufolge benötigt man mindestens 7 Punkte, 13 Geraden oder eine passende Kombination um den Trifokal-Tensor direkt bestimmen zu können. Mit dieser direkten linearen Lösung für den Trifokal-Tensor sind allerdings ein paar Nachteile verbunden. Der Trifokal-Tensor besteht zwar aus 27 Elementen, jedoch besitzt er nur 18 Freiheitsgrade. Aus diesem Grund müssen die Tensorelemente 8 interne Bedingungen erfüllen, neben der Festlegung des Tensormaßstabes, um einen gültigen Trifokal-Tensor zu repräsentieren. Diese Bedingungen werden im Allgemeinen von der direkten linearen Lösung nicht erfüllt. Ein weiterer Nachteil ist, dass die direkte lineare Lösung nicht die Fehler in den originalen Bildbeobachtungen minimiert (die sogenannten Residuen), sondern den sogenannten algebraischen Fehler. Diese Nachteile kann man beseitigen, wenn man einen gültigen Trifokal-Tensor über die Minimierung der Bildresiduen berechnet. Das sogenannte Gauß-Helmert Modell stellt eine allgemeine Umgebung für derartige bedingte Ausgleichungsaufgaben dar. Die Berechnung eines gültigen Trifokal-Tensor im Gauß-Helmert Modell kann in zwei Arten realisiert werden: Indem der Trifokal-Tensor durch seine 27 Elemente repräsentiert wird und die 8 internen Bedingungen gemeinsam mit der Festlegung des Maßstabes zusätzlich ins Gauß-Helmert Modell aufgenommen werden; oder indem der Trifokal-Tensor durch eine andere alternative Parametrisierung, die genau 18 Freiheitsgrade hat, dargestellt wird. Verschiedene Gruppen von Bedingungen und unterschiedliche Parametrisierungen wurden in der Vergangenheit publiziert, und die wichtigsten davon werden in dieser Arbeit zusammengefasst. Die meisten dieser Bedingungen und Parametrisierungen leiten sich aus den sogenannten Tensorschnitten ab. Dabei handelt es sich um 3×3 Matrizen, die aus dem Tensor sozusagen herausgeschnitten werden können. Aufgrund ihrer hohen Bedeutung werden diese Tensorschnitte in dieser Arbeit sehr genau untersucht. Mit ihrer Hilfe werden zwei neue Gruppen von Bedingungen, die auch eine einfache geometrische Interpretation erlauben, und eine neue alternative Parametrisierung für den Trifokal-Tensor hergeleitet. Um nun einen gültigen Trifokal-Tensor im Gauß-Helmert Modell über die Minimierung der Bildresiduen berechnen zu können, ist es wichtig eine konsistente Repräsentierung für den Tensor zu besitzen. Die von Hartley vorgeschlagene Parametrisierung mit Hilfe der Projektionsmatrizen ist die einfachste Möglichkeit für solch eine konsistente Repräsentierung. Diese Parametrisierung ist anwendbar solange (i) nicht alle drei Projektionszentren zusammenfallen und (ii) das erste Projektionszentrum verschieden von den anderen beiden ist. Wenn alle Korrespondenzen in den drei Bildern von einer gemeinsamen Ebene stammen, dann kann der Trifokal-Tensor nicht eindeutig bestimmt werden. Aus diesem Grund wird in dieser Arbeit die minimaler Dicke der Objektpunkte untersucht; d.h. was ist die minimal notwendige Abweichung von einer gemeinsamen Ebene, sodass der Trifokal-Tensor immer noch erfolgreich berechnet werden kann? Diese Untersuchung wird empirisch anhand verschiedener Bildkonfigurationen und unterschiedlicher Punktanzahl durchgeführt. In diesen Untersuchungen werden weiters die Unterschiede im berechneten Trifokal-Tensor behandelt, die entstehen wenn die internen Bedingungen berücksichtigt werden oder nicht, und wenn algebraische Fehler oder Bildresiduen minimiert werden. Die Erkenntnisse dieser empirischen Untersuchungen können wie folgt zusammengefasst werden: Für Bildkonfigurationen mit guter Geometrie, wie im Fall von konvergenten terrestrischen Aufnahmen oder im Fall von Luftbildern, stimmt die direkte lineare Lösung (algebraischer Fehler ohne Bedingungen) für den Tensor praktisch mit dem gültigen Tensor, der im Gauß-Helmert Modell (Bildresiduen mit Bedingungen) geschätzt wird überein. Für diese Konfigurationen mit guter Geometrie wurden auch erstaunlich geringe minimale Dicken bereits bei der Verwendung von 10 korrespondierenden Punkten gefunden. Nimmt die Anzahl der Punkte zu, so wird auch die minimale Dicke kleiner. Für die erwähnten Konfigurationen und 15 Punkttripel war die Berechung des Tensors für eine minimale Dicke von etwa 1% der Aufnahmeentfernung immer noch erfolgreich (Normalwinkel Aufnahmen und angenommenes Bildrauschen von 1 Pixel). Für Bildkonfigurationen mit schwacher Geometrie, wie im Fall von kollinearen Projektionszentren mit zusammenfallenden Blickrichtungen, ist eine deutlich größere Punkteanzahl ist notwendig und die direkte lineare Lösung versagt viel häufiger bei kleinen Objektdicken als die gültige Lösung übers Gauß-Helmert Modell. Diese empirischen Untersuchungen führen uns zum Schluss, dass für Konfigurationen mit guter Geometrie die Minimierung der Bildresiduen und die Berücksichtigung der internen Bedingungen eigentlich nicht notwendig ist – besonders dann nicht, wenn man nur an Näherungswerten für eine anschließende Bündelblockausgleichung interessiert ist. Benötigt man jedoch ein allgemeines Werkzeug, das Näherungswerte für die Bildorientierungen liefert und keine Einschränkungen an die Bildkonfiguration setzt und auch bei schwächerer Geometrie funktioniert, so ist die Lösung übers Gauß-Helmert Modell zu realisieren.
Verbesserte Ableitung von Geländemodellen aus der digitalen Bildzuordnung
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2003.Begutachter: O.Univ.Prof. Dr.-Ing. Karl Kraus, Betreuer: Dipl.-Ing. Dr. Franz Rottensteiner.
Kurzfassung/Abstract
Digitale Oberflächen- und Geländemodelle werden heute für viele weitreichende Gebiete aus Wissenschaft und Praxis benutzt. Sie dienen zum Beispiel als Grundlage bei der Erzeugung topographischer Karten und sind Bestandteil vieler Umwelt- und Geoinformationssysteme. Die Photogrammetrie, aber auch weitere Verfahren wie das Laserscanning, terrestrische Verfahren oder die Fernerkundung liefern die Basisdaten zur Erzeugung eines Oberflächen- oder Geländemodells. Es existiert eine Reihe an Verfahren, um auf Basis dieser Daten schließlich ein Digitales Oberflächen- oder Geländemodell zu erzeugen. Bei der Modellierung der Erdoberfläche ist es wichtig, zwischen Oberflächenmodellen, die ausschließlich den Boden repräsentieren, und solchen, die auch künstliche Bebauung und Bewaldung beinhalten, zu unterscheiden. Oft ist nur das Gelände ohne Kunstbauten und Vegetation interessant. Nicht-Bodenpunkte auf Vegetation und Gebäuden sollen keinen Einfluss auf das Geländemodell haben. Das Geländemodell soll ausschließlich durch Bodenpunkte repräsentiert werden. Diese Arbeit befasst sich mit der Aufgabe, automatisch photogrammetrisch ausgewertete Digitale Geländemodelle vom Einfluss der Nicht-Bodenpunkte zu befreien. Die Methode, die dazu angewendet wird, hat sich bereits bei der Bearbeitung von Laserscanner-Daten bewährt und wurde am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien bereits in Veröffentlichungen beschrieben. Es handelt sich um die im Programmsystem SCOP++ implementierte Methode zur Filterung und Klassifizierung, der Hierarchischen Robusten Filterung. Der Schwerpunkt der Arbeit liegt nun in der Untersuchung, ob und inwiefern dieselbe Methode erfolgreich bei der Bearbeitung und Verbesserung von Geländemodellen ist, die automatisch photogrammetrisch mittels Matching erstellt wurden. Zur Oberflächenmodellierung wurde das Programm MatchT der Firma InphoGmbH im Jahr 2002 am Institut für Photogrammetrie und Fernerkundung im Rahmen einer Lehrveranstaltung getestet. Dieses Programm liefert die Daten für die Untersuchung in dieser Arbeit, das heißt Digitale Geländemodelle, die noch nicht ausreichend vom Einfluss der Nicht-Bodenpunkte (Häuser, Wald oder Kraftfahrzeuge) befreit werden konnten. Als Datengrundlagen standen Luftbilder vom Raum Eggenburg, von Teilen des Pulkautals, der Schneealpe und einer Mülldeponie nahe Stockerau zur Verfügung. Dabei handelt es sich um ebene, hügelige oder auch gebirgige Bereiche. Zum Teil fanden sich lockere und dichte Verbauung und dichte Vegetation. Nachdem Digitale Geländemodelle von Bereichen dieser Gebiete mittels digitaler Bildzuordnung (MatchT) erstellt worden waren, waren die Einflüsse der Nicht-Bodenpunkte nicht ausreichend beseitigt. Um diese zu eliminieren, wurde die im Programm SCOP++ implementierte Methode der Hierarchischen Robusten FIlterung angewendet. Die Ergebnisse, die für die unterschiedlich dicht verbauten oder bewaldeten Geländetypen erreicht werden konnten, werden in dieser Arbeit vorgestellt und im Anschluss interpretiert und beurteilt. Zur Beurteilung der erzielten Ergebnisse wurden manuell gemessene Digitale Geländemodelle in einigen der bearbeiteten Bereiche herangezogen. Es stellte sich heraus, dass die in dieser Arbeit angewendete Methode in locker verbautem Gebiet durchwegs gute Ergebnisse liefert. Die Einflüsse von Nicht-Bodenpunkten können hier weitgehend beseitigt werden, während das Gelände sehr gut modelliert wird. In dicht verbautem Gebiet können ebenfalls akzeptable Ergebnisse erreicht werden. Das Gelände wird hier allerdings aufgrund der Filtermethode nicht mehr so genau modelliert, nachdem die Einflüsse der Nicht-Bodenpunkte beseitigt sind. In bewaldeten Gebieten können keine zufriedenstellenden Ergebnisse erzielt werden, da in diesen Bereichen durch die Methode der digitalen Bildzuordnung keine Bodenpunkte ermittelt werden. Hier sind die Methoden des Laserscannings eindeutig im Vorteil. Die Einbeziehung von zuvor gemessenen Bruchkanten hat eine bedeutende Verbesserung des Digitalen Geländemodells zur Folge. Dadurch kann das teilweise "zu starke" Filtern der Robusten Filterung größtenteils reduziert werden.
Digitale Oberflächen- und Geländemodelle werden heute für viele weitreichende Gebiete aus Wissenschaft und Praxis benutzt. Sie dienen zum Beispiel als Grundlage bei der Erzeugung topographischer Karten und sind Bestandteil vieler Umwelt- und Geoinformationssysteme. Die Photogrammetrie, aber auch weitere Verfahren wie das Laserscanning, terrestrische Verfahren oder die Fernerkundung liefern die Basisdaten zur Erzeugung eines Oberflächen- oder Geländemodells. Es existiert eine Reihe an Verfahren, um auf Basis dieser Daten schließlich ein Digitales Oberflächen- oder Geländemodell zu erzeugen. Bei der Modellierung der Erdoberfläche ist es wichtig, zwischen Oberflächenmodellen, die ausschließlich den Boden repräsentieren, und solchen, die auch künstliche Bebauung und Bewaldung beinhalten, zu unterscheiden. Oft ist nur das Gelände ohne Kunstbauten und Vegetation interessant. Nicht-Bodenpunkte auf Vegetation und Gebäuden sollen keinen Einfluss auf das Geländemodell haben. Das Geländemodell soll ausschließlich durch Bodenpunkte repräsentiert werden. Diese Arbeit befasst sich mit der Aufgabe, automatisch photogrammetrisch ausgewertete Digitale Geländemodelle vom Einfluss der Nicht-Bodenpunkte zu befreien. Die Methode, die dazu angewendet wird, hat sich bereits bei der Bearbeitung von Laserscanner-Daten bewährt und wurde am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien bereits in Veröffentlichungen beschrieben. Es handelt sich um die im Programmsystem SCOP++ implementierte Methode zur Filterung und Klassifizierung, der Hierarchischen Robusten Filterung. Der Schwerpunkt der Arbeit liegt nun in der Untersuchung, ob und inwiefern dieselbe Methode erfolgreich bei der Bearbeitung und Verbesserung von Geländemodellen ist, die automatisch photogrammetrisch mittels Matching erstellt wurden. Zur Oberflächenmodellierung wurde das Programm MatchT der Firma InphoGmbH im Jahr 2002 am Institut für Photogrammetrie und Fernerkundung im Rahmen einer Lehrveranstaltung getestet. Dieses Programm liefert die Daten für die Untersuchung in dieser Arbeit, das heißt Digitale Geländemodelle, die noch nicht ausreichend vom Einfluss der Nicht-Bodenpunkte (Häuser, Wald oder Kraftfahrzeuge) befreit werden konnten. Als Datengrundlagen standen Luftbilder vom Raum Eggenburg, von Teilen des Pulkautals, der Schneealpe und einer Mülldeponie nahe Stockerau zur Verfügung. Dabei handelt es sich um ebene, hügelige oder auch gebirgige Bereiche. Zum Teil fanden sich lockere und dichte Verbauung und dichte Vegetation. Nachdem Digitale Geländemodelle von Bereichen dieser Gebiete mittels digitaler Bildzuordnung (MatchT) erstellt worden waren, waren die Einflüsse der Nicht-Bodenpunkte nicht ausreichend beseitigt. Um diese zu eliminieren, wurde die im Programm SCOP++ implementierte Methode der Hierarchischen Robusten FIlterung angewendet. Die Ergebnisse, die für die unterschiedlich dicht verbauten oder bewaldeten Geländetypen erreicht werden konnten, werden in dieser Arbeit vorgestellt und im Anschluss interpretiert und beurteilt. Zur Beurteilung der erzielten Ergebnisse wurden manuell gemessene Digitale Geländemodelle in einigen der bearbeiteten Bereiche herangezogen. Es stellte sich heraus, dass die in dieser Arbeit angewendete Methode in locker verbautem Gebiet durchwegs gute Ergebnisse liefert. Die Einflüsse von Nicht-Bodenpunkten können hier weitgehend beseitigt werden, während das Gelände sehr gut modelliert wird. In dicht verbautem Gebiet können ebenfalls akzeptable Ergebnisse erreicht werden. Das Gelände wird hier allerdings aufgrund der Filtermethode nicht mehr so genau modelliert, nachdem die Einflüsse der Nicht-Bodenpunkte beseitigt sind. In bewaldeten Gebieten können keine zufriedenstellenden Ergebnisse erzielt werden, da in diesen Bereichen durch die Methode der digitalen Bildzuordnung keine Bodenpunkte ermittelt werden. Hier sind die Methoden des Laserscannings eindeutig im Vorteil. Die Einbeziehung von zuvor gemessenen Bruchkanten hat eine bedeutende Verbesserung des Digitalen Geländemodells zur Folge. Dadurch kann das teilweise "zu starke" Filtern der Robusten Filterung größtenteils reduziert werden.
Untersuchung von auflastbedingten Deformationen mittels VLBI
Institut für Geodäsie und Geophysik, Abteilung Höhere Geodäsie, Technische Universität Wien. 2003. Begutachter: O.Univ.-Prof. Dr.-Ing. Harald Schuh, Mitbetreuer: Dipl.-Ing. Johannes Böhm.
Kurzfassung/Abstract
Auflasteffekte auf die Erdoberfläche verursachen Verschiebungen der VLBI-Stationen im Bereich einiger Zentimeter. Um die Genauigkeit der VLBI-Ergebnisse zu erhöhen, müssen diese Effekte bei der Auswertung der VLBI-Beobachtungen berücksichtigt werden. Die vorliegende Arbeit beschreibt, wie sich die Korrektur von Erddeformationseffekten in der Auswertung von VLBI-Messungen auswirkt. Dazu wird untersucht, wie sich verschiedene Modelle für atmosphärische, nicht-gezeitenbedingte ozeanische und hydrologische Auflasten auf die geschätzten Stationshöhen und Basislinienlängen auswirken. Mit den betrachteten Auflastmodellen sind Verbesserungen nur in Teilbereichen erzielbar; und auch diese sind nur bedingt signifikant. Einerseits scheinen die globalen Auflastmodelle die Wirklichkeit noch nicht genau genug abzubilden und andererseits gibt es offensichtlich andere unkorrigierte Einflüsse auf die VLBI-Messung.
Auflasteffekte auf die Erdoberfläche verursachen Verschiebungen der VLBI-Stationen im Bereich einiger Zentimeter. Um die Genauigkeit der VLBI-Ergebnisse zu erhöhen, müssen diese Effekte bei der Auswertung der VLBI-Beobachtungen berücksichtigt werden. Die vorliegende Arbeit beschreibt, wie sich die Korrektur von Erddeformationseffekten in der Auswertung von VLBI-Messungen auswirkt. Dazu wird untersucht, wie sich verschiedene Modelle für atmosphärische, nicht-gezeitenbedingte ozeanische und hydrologische Auflasten auf die geschätzten Stationshöhen und Basislinienlängen auswirken. Mit den betrachteten Auflastmodellen sind Verbesserungen nur in Teilbereichen erzielbar; und auch diese sind nur bedingt signifikant. Einerseits scheinen die globalen Auflastmodelle die Wirklichkeit noch nicht genau genug abzubilden und andererseits gibt es offensichtlich andere unkorrigierte Einflüsse auf die VLBI-Messung.
Anwendung von Georadarmessungen zur Untersuchung von neotektonischen Vorgängen im Wiener Becken
Institut für Geodäsie und Geophysik, Abteilung Geophysik, Technische Universität Wien, 2003. Begutachter und Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl, Mitbetreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Karl Heinz Roch.
Kurzfassung/Abstract
In der vorliegenden Arbeit wird untersucht, ob mittels Georadar geologische Strukturen, die neotektonische Vorgänge widerspiegeln, erkundet werden können. Das Ziel der Erkundung ist das Auffinden von geologischen Störungen, die sich bis in oberflächennahe Bereiche fortsetzen. Diesbezügliche Messungen wurden in zwei Untersuchungsgebieten im Wiener Becken, das eine Vielzahl von Störungen aufweist, durchgeführt. Diese Messgebiete sind auch Untersuchungsgebiete des ENTEC–Projektes (Environmental Tectonics Research Program), eines geowissenschaftlichen Forschungsnetzwerkes, an dem auch das Institut für Geologie der Universität Wien beteiligt ist. Das Ergebnis der Georadarmessungen im Messgebiet Gänserndorf zeigt den Verlauf einer Schicht, die eine Unterbrechung und einen deutlichen Versatz aufweist. Im Messgebiet Ebergassing–Wienerherberg zeigt das sonst eher gleichmäßig erscheinende Reflexionsbild an einigen Stellen Diskontinuitäten. Neben für das Georadar ungünstigen Bodenverhältnissen haben sich hier auch noch Störeinflüsse elektromagnetischer Natur in den Radargrammen abgezeichnet. Die Ergebnisse zusätzlicher Messmethoden, wie Seismik, Gravimetrie, Elektromagnetische Induktion und geoelektrische Sondierung, geben aber übereinstimmend Aufschluss über den geologischen Aufbau des Untergrundes. Sie stützen somit die Annahme einer neotektonischen Störung. Insbesondere der Vergleich mit einem entsprechenden Profil der OMV 3D–Seismik, in dem eine Störungszone deutlich sichtbar ist, ermöglicht, vermutete Störungsäste bis an die Oberfläche zu verfolgen. In beiden Untersuchungsgebieten konnten also Ergebnisse erzielt werden, die die Struktur des Untergrundes in Zusammenhang mit neotektonischen Vorgängen bringen. Zusätzlich zu den im Vordergrund stehenden Georadarmessungen wurden in einem der beiden Messgebiete, der Mitterndorfer Senke, auch Untersuchungen mit anderen geophysikalischen Methoden durchgeführt. Die einzelnen Ergebnisse wurden verglichen und ermöglichten eine gemeinsame Interpretation.
In der vorliegenden Arbeit wird untersucht, ob mittels Georadar geologische Strukturen, die neotektonische Vorgänge widerspiegeln, erkundet werden können. Das Ziel der Erkundung ist das Auffinden von geologischen Störungen, die sich bis in oberflächennahe Bereiche fortsetzen. Diesbezügliche Messungen wurden in zwei Untersuchungsgebieten im Wiener Becken, das eine Vielzahl von Störungen aufweist, durchgeführt. Diese Messgebiete sind auch Untersuchungsgebiete des ENTEC–Projektes (Environmental Tectonics Research Program), eines geowissenschaftlichen Forschungsnetzwerkes, an dem auch das Institut für Geologie der Universität Wien beteiligt ist. Das Ergebnis der Georadarmessungen im Messgebiet Gänserndorf zeigt den Verlauf einer Schicht, die eine Unterbrechung und einen deutlichen Versatz aufweist. Im Messgebiet Ebergassing–Wienerherberg zeigt das sonst eher gleichmäßig erscheinende Reflexionsbild an einigen Stellen Diskontinuitäten. Neben für das Georadar ungünstigen Bodenverhältnissen haben sich hier auch noch Störeinflüsse elektromagnetischer Natur in den Radargrammen abgezeichnet. Die Ergebnisse zusätzlicher Messmethoden, wie Seismik, Gravimetrie, Elektromagnetische Induktion und geoelektrische Sondierung, geben aber übereinstimmend Aufschluss über den geologischen Aufbau des Untergrundes. Sie stützen somit die Annahme einer neotektonischen Störung. Insbesondere der Vergleich mit einem entsprechenden Profil der OMV 3D–Seismik, in dem eine Störungszone deutlich sichtbar ist, ermöglicht, vermutete Störungsäste bis an die Oberfläche zu verfolgen. In beiden Untersuchungsgebieten konnten also Ergebnisse erzielt werden, die die Struktur des Untergrundes in Zusammenhang mit neotektonischen Vorgängen bringen. Zusätzlich zu den im Vordergrund stehenden Georadarmessungen wurden in einem der beiden Messgebiete, der Mitterndorfer Senke, auch Untersuchungen mit anderen geophysikalischen Methoden durchgeführt. Die einzelnen Ergebnisse wurden verglichen und ermöglichten eine gemeinsame Interpretation.
Netzwerk-Voronoi-Diagramme
Institut für Geoinformation und Landesvermessung, Technische Universität Wien, 2003. Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Stephan Winter.
Kurzfassung/Abstract
In einer Stadt gibt es verschiedene Standorte von Einrichtungen wie zum Beispiel Geschäfte, Schulen, Rettung, für die das Einzugsgebiet eine wichtige Rolle spielt. Für einen beliebigen Punkt in der Stadt ist dabei jener Standort interessant, der am kürzesten (=schnellsten) Weg erreichbar ist. Eine Methode zur Bestimmung des Einzugsgebietes bietet das Voronoi-Diagramm. Das Voronoi-Diagramm grenzt das zu einem Punkt nächstgelegene Gebiet ein und wird üblicherweise auf einer ebenen Fläche in der L2-Metrik bestimmt. Als Näherungslösung kann dieses Flächen-Voronoi-Diagramm in einem Straßennetzwerk verwendet werden. Exakt müsste man allerdings das Voronoi-Diagramm so bestimmen, dass die im Netzwerk zurückgelegten Distanzen herangezogen werden. Als Ergebnis erhält man ein Netzwerk-Voronoi-Diagramm, das auch Wegzeiten aus unterschiedlichen Geschwindigkeiten (durch Geschwindigkeitsbeschränkungen, Straßenbreiten) oder Wegzeiten in einem öffentlichen Verkehrsnetzwerk berücksichtigen kann. Die Aufgabe dieser Diplomarbeit war, den Shortest Path Algorithmus von Dijkstra für die Berechnung des Voronoi-Diagrammes in einem Netzwerk mit Knoten und Kanten zu modifizieren und in der Folge zu implementieren. Der Algorithmus berechnet die kürzesten Wegzeiten von den Standorten – den Voronoi-Generatoren – zu allen anderen Knoten im Netzwerk, und findet so für jeden Knoten den nächstgelegenen Generator. Für die Punkte entlang einer Kante des Netzwerkes konnte ebenfalls der nächstgelegene Generator berechnet werden. Somit war das Netzwerk-Voronoi-Diagramm für alle Knoten und Kanten vollständig bestimmt. Für die Implementierung wurde die Programmiersprache IDL verwendet, als Datenstruktur für die Netzwerke wurden Adjazenzmatrizen verwendet. Anwendungen ergeben sich vor allem für inhomogene Netzwerke, für die das Flächen-Voronoi-Diagramm als Näherung versagt. Drei Beispiele für solche Netzwerke sind in dieser Diplomarbeit herangezogen worden: ein Straßennetz, ein öffentliches Verkehrsnetz und ein Wegenetz in einem Gebäude. In diesen Netzwerken wurden einige der möglichen Anwendungen gezeigt: die Berechnung des Einzugsgebietes von Polizei-Wachzimmern, die Größe des Einzugsgebietes bei der Errichtung einer neuen Apotheke, die Dauer der Schulwege bei vorgegebenen Schulstandorten, oder die Evakuierung eines Gebäudes im Katastrophenfall. Die Ergebnisse konnten anschaulich mit Isochronen visualisiert werden. Es wurde deutlich, dass das Netzwerk-Voronoi-Diagramm mitunter grobe Verzerrungen eines Flächen-Voronoi-Diagramms aufdeckt, und daher zu bevorzugen ist.
In einer Stadt gibt es verschiedene Standorte von Einrichtungen wie zum Beispiel Geschäfte, Schulen, Rettung, für die das Einzugsgebiet eine wichtige Rolle spielt. Für einen beliebigen Punkt in der Stadt ist dabei jener Standort interessant, der am kürzesten (=schnellsten) Weg erreichbar ist. Eine Methode zur Bestimmung des Einzugsgebietes bietet das Voronoi-Diagramm. Das Voronoi-Diagramm grenzt das zu einem Punkt nächstgelegene Gebiet ein und wird üblicherweise auf einer ebenen Fläche in der L2-Metrik bestimmt. Als Näherungslösung kann dieses Flächen-Voronoi-Diagramm in einem Straßennetzwerk verwendet werden. Exakt müsste man allerdings das Voronoi-Diagramm so bestimmen, dass die im Netzwerk zurückgelegten Distanzen herangezogen werden. Als Ergebnis erhält man ein Netzwerk-Voronoi-Diagramm, das auch Wegzeiten aus unterschiedlichen Geschwindigkeiten (durch Geschwindigkeitsbeschränkungen, Straßenbreiten) oder Wegzeiten in einem öffentlichen Verkehrsnetzwerk berücksichtigen kann. Die Aufgabe dieser Diplomarbeit war, den Shortest Path Algorithmus von Dijkstra für die Berechnung des Voronoi-Diagrammes in einem Netzwerk mit Knoten und Kanten zu modifizieren und in der Folge zu implementieren. Der Algorithmus berechnet die kürzesten Wegzeiten von den Standorten – den Voronoi-Generatoren – zu allen anderen Knoten im Netzwerk, und findet so für jeden Knoten den nächstgelegenen Generator. Für die Punkte entlang einer Kante des Netzwerkes konnte ebenfalls der nächstgelegene Generator berechnet werden. Somit war das Netzwerk-Voronoi-Diagramm für alle Knoten und Kanten vollständig bestimmt. Für die Implementierung wurde die Programmiersprache IDL verwendet, als Datenstruktur für die Netzwerke wurden Adjazenzmatrizen verwendet. Anwendungen ergeben sich vor allem für inhomogene Netzwerke, für die das Flächen-Voronoi-Diagramm als Näherung versagt. Drei Beispiele für solche Netzwerke sind in dieser Diplomarbeit herangezogen worden: ein Straßennetz, ein öffentliches Verkehrsnetz und ein Wegenetz in einem Gebäude. In diesen Netzwerken wurden einige der möglichen Anwendungen gezeigt: die Berechnung des Einzugsgebietes von Polizei-Wachzimmern, die Größe des Einzugsgebietes bei der Errichtung einer neuen Apotheke, die Dauer der Schulwege bei vorgegebenen Schulstandorten, oder die Evakuierung eines Gebäudes im Katastrophenfall. Die Ergebnisse konnten anschaulich mit Isochronen visualisiert werden. Es wurde deutlich, dass das Netzwerk-Voronoi-Diagramm mitunter grobe Verzerrungen eines Flächen-Voronoi-Diagramms aufdeckt, und daher zu bevorzugen ist.
Modellierung terrestrischer Laserscanner-Daten
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2003. Begutachter: O.Univ.Prof. Dr.-Ing. Karl Kraus, Betreuer: Dipl.-Ing. Christian Briese und Dipl.-Ing. Dr. Norbert Pfeifer.
Kurzfassung/Abstract
Terrestrisches Laserscanning und die (Nahbereichs-)Photogrammetrie sind konkurrierende Technologien zur Aufnahme von Objekten im Nahbereich, wobei jede der beiden Aufnahmemethoden ihre Stärken und Schwächen aufweist. Terrestrisches Laserscanning liefert eine sehr hohe Punktdichte bei weitgehend automatisch ablaufendem Aufnahmevorgang [Pfeifer und Rottensteiner, 2001]. Im Gegensatz zur Photogrammetrie besteht bei der geometrischen Rekonstruktion des Objekts infolge des aktiven Messsystems keinerlei Abhängigkeit von der natürlichen Beleuchtung und der Textur der Objektoberfläche. Jedoch ist gerade die Texturinformation für diverse Anwendungen von Interesse, da sie einen dokumentarischen Wert besitzt. Neben der Erfassung der Objekttextur stellt die gute Bestimmbarkeit von Objektkanten eine weitere Stärke der Photogrammetrie dar. An der Objektoberfläche vorhandene Kanten können - bei entsprechend gutem Kontrast - direkt und präzise in den Photos gemessen werden. In Kanten- bzw. Konturnähe treten beim Laserscanning hingegen Probleme aufgrund fehlerhafter Distanzmessungen auf. Bei kombiniertem Einsatz können die Stärken beider Aufnahmemethoden genützt werden. Für diese Arbeit stehen Aufnahmen des terrestrischen Laserscanners LMS-Z360 der Fa. Riegl sowie digitale Photos von der Marc-Anton-Plastik (Secession, Wien) zur Verfügung. Der erste Schwerpunkt der Diplomarbeit liegt in der gemeinsamen Orientierung der Laserscanner-Aufnahmen und der Photos über signalisierte Verknüpfungspunkte. Dazu müssen diese Verknüpfungspunkte sowohl in den Intensitätsbildern der Laserscanner-Aufnahmen als auch in den Photos gemessen werden. Im Rahmen einer simultanen, hybriden Ausgleichung nach der Methode der kleinsten Quadrate können anschließend die Orientierungsparameter aller Laserscanner-Aufnahmen und Photos sowie die Koordinaten der Verknüpfungspunkte bestimmt werden. Die Ergebnisse dieser Ausgleichung werden analysiert und einer kritischen Betrachtung unterworfen. Den zweiten Schwerpunkt der Arbeit bildet die geometrische 3D-Modellierung der Objektoberfläche basierend auf den Laserscanner-Daten. Dafür steht das Software-Paket Geomagic Studio der Firma Raindrop Geomagic zur Verfügung. Die ursprüngliche Punktwolke wird zunächst bearbeitet und dann trianguliert. Anschließend wird die Triangulierung verbessert und daraus eine NURBS-(Non Uniform Rational B-Splines-) Oberflächendarstellung bestimmt. In der Arbeit wird sowohl auf die im Zuge der Modellierung gemachten Erfahrungen eingegangen als auch das Ergebnis der Modellierung kritisch betrachtet. Den Abschluss der Arbeit bildet ein Ausblick auf das Einbeziehen von Photos für die Modellierung, wobei es um die Nutzung von Photos zur besseren Bestimmung von Objektkanten und die Erstellung eines 3D-Photomodells für dokumentarische Zwecke geht.
Terrestrisches Laserscanning und die (Nahbereichs-)Photogrammetrie sind konkurrierende Technologien zur Aufnahme von Objekten im Nahbereich, wobei jede der beiden Aufnahmemethoden ihre Stärken und Schwächen aufweist. Terrestrisches Laserscanning liefert eine sehr hohe Punktdichte bei weitgehend automatisch ablaufendem Aufnahmevorgang [Pfeifer und Rottensteiner, 2001]. Im Gegensatz zur Photogrammetrie besteht bei der geometrischen Rekonstruktion des Objekts infolge des aktiven Messsystems keinerlei Abhängigkeit von der natürlichen Beleuchtung und der Textur der Objektoberfläche. Jedoch ist gerade die Texturinformation für diverse Anwendungen von Interesse, da sie einen dokumentarischen Wert besitzt. Neben der Erfassung der Objekttextur stellt die gute Bestimmbarkeit von Objektkanten eine weitere Stärke der Photogrammetrie dar. An der Objektoberfläche vorhandene Kanten können - bei entsprechend gutem Kontrast - direkt und präzise in den Photos gemessen werden. In Kanten- bzw. Konturnähe treten beim Laserscanning hingegen Probleme aufgrund fehlerhafter Distanzmessungen auf. Bei kombiniertem Einsatz können die Stärken beider Aufnahmemethoden genützt werden. Für diese Arbeit stehen Aufnahmen des terrestrischen Laserscanners LMS-Z360 der Fa. Riegl sowie digitale Photos von der Marc-Anton-Plastik (Secession, Wien) zur Verfügung. Der erste Schwerpunkt der Diplomarbeit liegt in der gemeinsamen Orientierung der Laserscanner-Aufnahmen und der Photos über signalisierte Verknüpfungspunkte. Dazu müssen diese Verknüpfungspunkte sowohl in den Intensitätsbildern der Laserscanner-Aufnahmen als auch in den Photos gemessen werden. Im Rahmen einer simultanen, hybriden Ausgleichung nach der Methode der kleinsten Quadrate können anschließend die Orientierungsparameter aller Laserscanner-Aufnahmen und Photos sowie die Koordinaten der Verknüpfungspunkte bestimmt werden. Die Ergebnisse dieser Ausgleichung werden analysiert und einer kritischen Betrachtung unterworfen. Den zweiten Schwerpunkt der Arbeit bildet die geometrische 3D-Modellierung der Objektoberfläche basierend auf den Laserscanner-Daten. Dafür steht das Software-Paket Geomagic Studio der Firma Raindrop Geomagic zur Verfügung. Die ursprüngliche Punktwolke wird zunächst bearbeitet und dann trianguliert. Anschließend wird die Triangulierung verbessert und daraus eine NURBS-(Non Uniform Rational B-Splines-) Oberflächendarstellung bestimmt. In der Arbeit wird sowohl auf die im Zuge der Modellierung gemachten Erfahrungen eingegangen als auch das Ergebnis der Modellierung kritisch betrachtet. Den Abschluss der Arbeit bildet ein Ausblick auf das Einbeziehen von Photos für die Modellierung, wobei es um die Nutzung von Photos zur besseren Bestimmung von Objektkanten und die Erstellung eines 3D-Photomodells für dokumentarische Zwecke geht.
Kartographische Klassifikation von Radioaktivität: Eine automatisierte GIS-Lösung
Betreuer: Institut für Geodäsie, Abteilung für Geoinformation, Technische Universität Graz, 2003. Begutachter: Univ.Prof. Dr.phil. N. Bartelme.
Kurzfassung/Abstract
Zum Aufgabenbereich des Bundesministeriums für Inneres, im Bereich des Zivilschutzes, gehört es, illegal gelagerte oder durch das Land transportierte radioaktive Stoffe bundesweit aufzuspüren. Um den Ernstfall simulieren zu können, werden gut abgeschirmte leicht radioaktive Stoffe in Testgebieten ausgesetzt. Mit speziellen Strahlungsmessgeräten und GPS werden Messungen unter Einsatz von Hubschraubern oder Kraftfahrzeugen zur Auffindung der Strahlungsquellen durchgeführt. Die daraus gewonnenen Messdaten sollen zur Visualisierung und Referenzierung mit dem in Österreich verwendeten amtlichen Koordinatensystem, sowie zur automatischen Interpretation, in ein Geographisches Informationssystem (GIS) eingelesen werden. Es ist das Ziel des österreichischen Zivilschutzes einen automatisierten Datenfluss in Zusammenarbeit mit den GIS-Abteilungen der Bundesländer standardisiert zu verwirklichen. Nach Absprache mit dem Referat für Informations- und Kommunikationstechnik (IKT) des Amtes der Steiermärkischen Landesregierung wurde ein Programm auf der Basis der GIS Plattform ArcInfo™ 8 entwickelt, welches die genannten Vorstellungen realisiert. Die vorliegende Diplomarbeit geht anfangs auf den Strahlenschutz in Österreich und die Funktionen des entwickelten Programms ein. Im Weiteren wird die kartographische Aussagekraft der resultierenden Darstellung analysiert. Abschließend wird auf den Programmaufbau der entwickelten GIS-Lösung eingegangen.
Zum Aufgabenbereich des Bundesministeriums für Inneres, im Bereich des Zivilschutzes, gehört es, illegal gelagerte oder durch das Land transportierte radioaktive Stoffe bundesweit aufzuspüren. Um den Ernstfall simulieren zu können, werden gut abgeschirmte leicht radioaktive Stoffe in Testgebieten ausgesetzt. Mit speziellen Strahlungsmessgeräten und GPS werden Messungen unter Einsatz von Hubschraubern oder Kraftfahrzeugen zur Auffindung der Strahlungsquellen durchgeführt. Die daraus gewonnenen Messdaten sollen zur Visualisierung und Referenzierung mit dem in Österreich verwendeten amtlichen Koordinatensystem, sowie zur automatischen Interpretation, in ein Geographisches Informationssystem (GIS) eingelesen werden. Es ist das Ziel des österreichischen Zivilschutzes einen automatisierten Datenfluss in Zusammenarbeit mit den GIS-Abteilungen der Bundesländer standardisiert zu verwirklichen. Nach Absprache mit dem Referat für Informations- und Kommunikationstechnik (IKT) des Amtes der Steiermärkischen Landesregierung wurde ein Programm auf der Basis der GIS Plattform ArcInfo™ 8 entwickelt, welches die genannten Vorstellungen realisiert. Die vorliegende Diplomarbeit geht anfangs auf den Strahlenschutz in Österreich und die Funktionen des entwickelten Programms ein. Im Weiteren wird die kartographische Aussagekraft der resultierenden Darstellung analysiert. Abschließend wird auf den Programmaufbau der entwickelten GIS-Lösung eingegangen.
Kontinuierliche Absteckung einer Gleitschalung mittels GPS
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2003. Begutachter und Betreuer: O.Univ.-Prof. Dipl.-Ing. Dr. Fritz K. Brunner.
Kurzfassung/Abstract
Die moderne Gleitschalungstechnologie erlaubt die Errichtung von sehr hohen Bauwerken innerhalb enger Toleranzen. Die Absteckung und Kontrolle während des Bauvorhabens erfolgt mittels optischen Loten oder Richtlasern und Totalstationen. Bei sehr hohen Bauwerken kann die vorgegebenen Absteckgenauigkeit der Gleitschalung schwer oder gar nicht eingehalten werden. Die Hauptursache liegt in nicht modellierbaren Refraktionseffekten und in der Konsoleninstabilität der Richtlaser. GPS bietet sich hier als kostengünstige und praktikable Alternative an. Diese Diplomarbeit soll als erster Baustein für die Verwirklichung eines Messsystems zur Absteckung einer Gleitschalung mittels GPS verstanden werden. Deshalb besteht der Hauptteil dieser Diplomarbeit aus der theoretischen Erarbeitung eines Modells zur Kombination von GPS mit zusätzlichen Sensoren (z.B. Distanzmesser, Neigungsmesser) und der Simulation von Einzelepochenlösungen. Mit Hilfe der Simulation wird das Messsystem in Bezug auf seine Präzision und insbesondere Zuverlässigkeit optimiert. Die Ergebnisse der Simulation und der Auswertung eines Experiments demonstrieren eine prinzipielle Tauglichkeit des konzipierten Messsystems auf dem Niveau von Einzelepochen. Um jedoch die Absteckgenauigkeit dauerhaft gewährleisten zu können, wird man in einer Weiterentwicklung des Messsystems von der Einzelepochenlösung auf eine Mehrepochenlösung (Kalman Filter) übergehen.
Die moderne Gleitschalungstechnologie erlaubt die Errichtung von sehr hohen Bauwerken innerhalb enger Toleranzen. Die Absteckung und Kontrolle während des Bauvorhabens erfolgt mittels optischen Loten oder Richtlasern und Totalstationen. Bei sehr hohen Bauwerken kann die vorgegebenen Absteckgenauigkeit der Gleitschalung schwer oder gar nicht eingehalten werden. Die Hauptursache liegt in nicht modellierbaren Refraktionseffekten und in der Konsoleninstabilität der Richtlaser. GPS bietet sich hier als kostengünstige und praktikable Alternative an. Diese Diplomarbeit soll als erster Baustein für die Verwirklichung eines Messsystems zur Absteckung einer Gleitschalung mittels GPS verstanden werden. Deshalb besteht der Hauptteil dieser Diplomarbeit aus der theoretischen Erarbeitung eines Modells zur Kombination von GPS mit zusätzlichen Sensoren (z.B. Distanzmesser, Neigungsmesser) und der Simulation von Einzelepochenlösungen. Mit Hilfe der Simulation wird das Messsystem in Bezug auf seine Präzision und insbesondere Zuverlässigkeit optimiert. Die Ergebnisse der Simulation und der Auswertung eines Experiments demonstrieren eine prinzipielle Tauglichkeit des konzipierten Messsystems auf dem Niveau von Einzelepochen. Um jedoch die Absteckgenauigkeit dauerhaft gewährleisten zu können, wird man in einer Weiterentwicklung des Messsystems von der Einzelepochenlösung auf eine Mehrepochenlösung (Kalman Filter) übergehen.
Kontinuierliche Neigungsmessungen entlang einer Bahntrasse
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2003. Begutachter und Betreuer: O.Univ.-Prof. Dipl.-Ing. Dr. Fritz K. Brunner.
Kurzfassung/Abstract
In den letzten Jahren hat die Bedeutung von kontinuierlichen Messsystemen zur Bestimmung der Gleislage zugenommen. Trotzdem werden bei Setzungsmessungen aus Genauigkeitsgründen noch immer manuelle Nivellementverfahren eingesetzt. In der vorliegenden Diplomarbeit wurde ein Messkonzept entwickelt, bei dem das Gleisprofil aus kontinuierlichen Neigungs- und Distanzmessungen bestimmt wird. Die Problematik besteht darin, dass durch die Bewegung des Messwagens, auf dem die Neigungssensoren montiert sind, eine Beschleunigungsverzerrung der Messwerte verursacht wird. Daher ist es notwendig die Neigungsmesswerte zu korrigieren. Die Korrektur erfolgt dabei mit Horizontalbeschleunigungswerten, die aus Distanzen, die mit einem Interferometer bestimmt wurden, abgeleitet werden. Neben der theoretischen Aufarbeitung dieser Problematik wurden Experimente mit drei unterschiedlichen Neigungssensoren durchgeführt, wobei die Bahntrasse durch die Führungsbahn des Horizontalkomparators im Labor simuliert wurde. Das Höhenprofil der Führungsbahn wurde dabei mit dem Autokollimationsverfahren (Referenz), mit statischen (Stop&Go) und kontinuierlichen Neigungsmessungen (kinematisch) bestimmt. Die theoretisch mögliche Korrektur der beschleunigungsverzerrten Neigungsmesswerte mit Horizontalbeschleunigungen wurde praktisch verifiziert. Als geeignetster Sensor für die kontinuierliche Neigungsmessung entlang einer Bahntrasse stellte sich dabei der Flüssigkeitssensor „Slope-Sensor“ der Firma Moba heraus.
In den letzten Jahren hat die Bedeutung von kontinuierlichen Messsystemen zur Bestimmung der Gleislage zugenommen. Trotzdem werden bei Setzungsmessungen aus Genauigkeitsgründen noch immer manuelle Nivellementverfahren eingesetzt. In der vorliegenden Diplomarbeit wurde ein Messkonzept entwickelt, bei dem das Gleisprofil aus kontinuierlichen Neigungs- und Distanzmessungen bestimmt wird. Die Problematik besteht darin, dass durch die Bewegung des Messwagens, auf dem die Neigungssensoren montiert sind, eine Beschleunigungsverzerrung der Messwerte verursacht wird. Daher ist es notwendig die Neigungsmesswerte zu korrigieren. Die Korrektur erfolgt dabei mit Horizontalbeschleunigungswerten, die aus Distanzen, die mit einem Interferometer bestimmt wurden, abgeleitet werden. Neben der theoretischen Aufarbeitung dieser Problematik wurden Experimente mit drei unterschiedlichen Neigungssensoren durchgeführt, wobei die Bahntrasse durch die Führungsbahn des Horizontalkomparators im Labor simuliert wurde. Das Höhenprofil der Führungsbahn wurde dabei mit dem Autokollimationsverfahren (Referenz), mit statischen (Stop&Go) und kontinuierlichen Neigungsmessungen (kinematisch) bestimmt. Die theoretisch mögliche Korrektur der beschleunigungsverzerrten Neigungsmesswerte mit Horizontalbeschleunigungen wurde praktisch verifiziert. Als geeignetster Sensor für die kontinuierliche Neigungsmessung entlang einer Bahntrasse stellte sich dabei der Flüssigkeitssensor „Slope-Sensor“ der Firma Moba heraus.
Topographische Daten in bewaldeten Gebieten - Ein Pilotprojekt mit einem flugzeuggetragenen Laserscanner
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2003. Begutachter: O.Univ.Prof. Dr.-Ing. Karl Kraus, Betreuer: Dipl.-Ing. Dr. Laszlo Molnar.
Kurzfassung/Abstract
Im April 1996 wurde im Wienerwald im Auftrag der Magistratsabteilung 41 (Stadtvermessung) der Stadt Wien eine Laserscanner-Befliegung durchgeführt. In der vorliegenden Arbeit werden die Möglichkeiten der Erstellung eines digitalen Geländemodells (DGM) aus Laserdaten und deren Genauigkeitspotential untersucht. Einleitend werden die Grundlagen des Laserscannings erläutert, anschließend erfolgt eine detaillierte Beschreibung der Wienerwald-Befliegung und deren Ergebnisse. Das Ergebnis zeigt, dass sich aus Laserdaten ein Geländemodell (DGM) mit einer Genauigkeit von ± 20 cm im flachen Gelände und einer Genauigkeit von ± 1 m in sehr steilem Gelände (Hangneigung 100 %) herstellen lässt. Falls in den kommenden Jahren die Eliminierung des systematischen Fehlers, der derzeit fast 20 cm beträgt, durch geeignete Systemverbesserungen gelingt, wird sich die Genauigkeit noch erheblich steigern lassen. Die Herstellung von großmaßstäbigen DGMs in Waldgebieten wird in Zukunft ausschließlich aus Laserscannerdaten abgeleitet werden, da die Genauigkeit gegenüber der Photogrammetrie um ein Vielfaches besser ist. Ob sich Laserscanning auch im offenen Gelände durchsetzen wird, hängt davon ab, ob geomorphologische Strukturlinien nachträglich aus den Laserdaten automatische abgeleitet werden können (z.B. durch Kantenextraktion). Derzeit fehlen Kanteninformationen völlig, was die geomorphologische Qualität sehr einschränkt. Im offenen Gelände bietet die Photogrammetrie noch die größeren Vorteile.
Im April 1996 wurde im Wienerwald im Auftrag der Magistratsabteilung 41 (Stadtvermessung) der Stadt Wien eine Laserscanner-Befliegung durchgeführt. In der vorliegenden Arbeit werden die Möglichkeiten der Erstellung eines digitalen Geländemodells (DGM) aus Laserdaten und deren Genauigkeitspotential untersucht. Einleitend werden die Grundlagen des Laserscannings erläutert, anschließend erfolgt eine detaillierte Beschreibung der Wienerwald-Befliegung und deren Ergebnisse. Das Ergebnis zeigt, dass sich aus Laserdaten ein Geländemodell (DGM) mit einer Genauigkeit von ± 20 cm im flachen Gelände und einer Genauigkeit von ± 1 m in sehr steilem Gelände (Hangneigung 100 %) herstellen lässt. Falls in den kommenden Jahren die Eliminierung des systematischen Fehlers, der derzeit fast 20 cm beträgt, durch geeignete Systemverbesserungen gelingt, wird sich die Genauigkeit noch erheblich steigern lassen. Die Herstellung von großmaßstäbigen DGMs in Waldgebieten wird in Zukunft ausschließlich aus Laserscannerdaten abgeleitet werden, da die Genauigkeit gegenüber der Photogrammetrie um ein Vielfaches besser ist. Ob sich Laserscanning auch im offenen Gelände durchsetzen wird, hängt davon ab, ob geomorphologische Strukturlinien nachträglich aus den Laserdaten automatische abgeleitet werden können (z.B. durch Kantenextraktion). Derzeit fehlen Kanteninformationen völlig, was die geomorphologische Qualität sehr einschränkt. Im offenen Gelände bietet die Photogrammetrie noch die größeren Vorteile.
Fehlermodellierung in regionalen Referenzstationsnetzen - Flächenkorrekturparameter versus Virtuelle Referenzstation
Institut für Geodäsie und Geophysik, Abteilung Höhere Geodäsie, Technische Universität Wien, 2003. Begutachter und Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber.
Kurzfassung/Abstract
Der Einsatz der satellitengestützten Positionierung ist aus dem Vermessungswesen schon seit Jahren nicht mehr wegzudenken. Während bis vor wenigen Jahren vor allem bei höheren Genauigkeitsanforderungen (wenige Zentimeter) nur das Verfahren der statischen Positionierung angewendet wurde, tritt nun auch in diesem Bereich die Positionierung in Echtzeit in den Vordergrund. Eine Möglichkeit, Basislinien von bis zu 50 km Länge in Zentimetergenauigkeit unter Verwendung einer einzelnen Roverstation zu bestimmen, bieten sogenannte Referenzstationsnetze. Das Hauptaugenmerk dieser Diplomarbeit lag auf der Untersuchung der zwei Methoden der Fehlermodellierung in Referenzstationsnetzen. Bei der Modellierung mit Flächenkorrekturparametern werden die Korrekturdaten, die für alle Referenzstationen des Netzes berechnet werden können, linear interpoliert, um die Korrekturdaten auf der Roverstation zu erhalten. Bei der Methode der virtuellen Referenzstation, einer Weiterentwicklung der Flächenkorrekturparameter, sendet die Roverstation die aus Codemessungen berechnete Näherungsposition an die Rechenzentrale, die sodann virtuelle Beobachtungen für diese Position berechnet und verschickt. Nun muss nur noch die Basislinie zwischen der virtuellen Referenzstation und der tatsächlichen Roverposition berechnet werden, um die Empfängerkoordinaten zu erhalten. Im Zuge der Diplomarbeit wurden im Referenzstationsnetz des Wiener Energieversorgers Wienstrom Testmessungen zur Überprüfung der Leistungsfähigkeit des Netzes durchgeführt. Es war nachzuweisen, dass Lagegenauigkeiten von ± 1 - 3 cm in Echtzeit erreicht werden können. Weiters wurden die Ergebnisse der Modellierung mit Flächenkorrekturparametern mit jenen der virtuellen Referenzstation verglichen. Abschließend wurde im Rahmen einer neunstündigen Dauermessung die Stabilität des Korrektursignals geprüft. Dabei wurde gezeigt, wie sich verschiedene Einflüsse wie veränderliche Satellitenanzahlen, die Satellitengeometrie sowie unterschiedliche Ionosphärenaktivität auf die Positionierungsergebnisse auswirken.
Der Einsatz der satellitengestützten Positionierung ist aus dem Vermessungswesen schon seit Jahren nicht mehr wegzudenken. Während bis vor wenigen Jahren vor allem bei höheren Genauigkeitsanforderungen (wenige Zentimeter) nur das Verfahren der statischen Positionierung angewendet wurde, tritt nun auch in diesem Bereich die Positionierung in Echtzeit in den Vordergrund. Eine Möglichkeit, Basislinien von bis zu 50 km Länge in Zentimetergenauigkeit unter Verwendung einer einzelnen Roverstation zu bestimmen, bieten sogenannte Referenzstationsnetze. Das Hauptaugenmerk dieser Diplomarbeit lag auf der Untersuchung der zwei Methoden der Fehlermodellierung in Referenzstationsnetzen. Bei der Modellierung mit Flächenkorrekturparametern werden die Korrekturdaten, die für alle Referenzstationen des Netzes berechnet werden können, linear interpoliert, um die Korrekturdaten auf der Roverstation zu erhalten. Bei der Methode der virtuellen Referenzstation, einer Weiterentwicklung der Flächenkorrekturparameter, sendet die Roverstation die aus Codemessungen berechnete Näherungsposition an die Rechenzentrale, die sodann virtuelle Beobachtungen für diese Position berechnet und verschickt. Nun muss nur noch die Basislinie zwischen der virtuellen Referenzstation und der tatsächlichen Roverposition berechnet werden, um die Empfängerkoordinaten zu erhalten. Im Zuge der Diplomarbeit wurden im Referenzstationsnetz des Wiener Energieversorgers Wienstrom Testmessungen zur Überprüfung der Leistungsfähigkeit des Netzes durchgeführt. Es war nachzuweisen, dass Lagegenauigkeiten von ± 1 - 3 cm in Echtzeit erreicht werden können. Weiters wurden die Ergebnisse der Modellierung mit Flächenkorrekturparametern mit jenen der virtuellen Referenzstation verglichen. Abschließend wurde im Rahmen einer neunstündigen Dauermessung die Stabilität des Korrektursignals geprüft. Dabei wurde gezeigt, wie sich verschiedene Einflüsse wie veränderliche Satellitenanzahlen, die Satellitengeometrie sowie unterschiedliche Ionosphärenaktivität auf die Positionierungsergebnisse auswirken.
Alternative Sensor Orientation Models for High Resolution Satellite Imagery
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2003. Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Jansa; Betreuer: O.Univ.Prof. Dr.-Ing. Kraus und Prof. Dr. Clive Fraser, Department of Geomatics, University of Melbourne, Australien.
Kurzfassung/Abstract
Diese Arbeit befasst sich mit diversen Sensormodellen die man zur Auswertung von hochauflösenden Satellitenbildern nutzen kann. Das Problem besteht darin, dass man die Kollinearitätsgleichung, so wie sie in der traditionellen Flugbild- und Nahbereichsphotogrammetrie verwendet, wird nicht anwenden kann. Der Hauptgrund ist, dass es sich bei hochauflösenden Satellitenbildern nicht um zentralperspektivische Aufnahmen handelt, da diese durch einen Linienscanner aufgenommen wurden ('1D-Perspektive'). Weiters ist der Öffnungswinkel bei diesen Sensoren extrem klein, was die Sensorgeometrie sehr instabil macht. Zusätzlich werden die Kalibrierungsdaten (Elemente der inneren Orientierung) von den Anbietern nicht bekanntgegeben. Anhand von drei IKONOS Bildern und einem SPOT5 Bild, sowie zwei simulierten Datensätzen sollen das Affine Modell, das Parallel Projektive Modell, die Direkte Lineare Transformation, sowie ein parametrisches Modell, das vom CCRS (Canada Centre for Remote Sensing) entwickelt wurde, getestet, evaluiert und verglichen werden. Die Satellitenbildbetreiber (denen die Kalibierungsdaten bekannt sind) bieten für jedes Bild sogenannte RPCs (Rational Polynomial Coefficients) an, durch welche ein Zusammenhang zwischen Objekt- und Bildraum beschrieben wird. Es wurde getestet wie gut diese (über 80) Koeffizienten das Sensormodell beschreiben, und zusätzlich wird auch eine Strategie beschrieben, mit Hilfe welcher man die Koeffizienten selber berechnen kann. Die Untersuchungen zeigen, dass das Affine und Parallel Projektive Modell das wahre Sensormodell am besten repräsentieren. Die planimetrischen Genauigkeiten liegen hier bei der Einzelbildauswertung unter einem halben Pixel, was beim IKONOS Satelliten einer 0.5m und beim SPOT5 Satelliten einer 1.25m Auflösung entspricht. Interessant ist auch das Ergebnis, dass die selbst gerechneten RPCs eine höhere Genauigkeit aufweisen als die, die von den Anbietern vertrieben werden.
Diese Arbeit befasst sich mit diversen Sensormodellen die man zur Auswertung von hochauflösenden Satellitenbildern nutzen kann. Das Problem besteht darin, dass man die Kollinearitätsgleichung, so wie sie in der traditionellen Flugbild- und Nahbereichsphotogrammetrie verwendet, wird nicht anwenden kann. Der Hauptgrund ist, dass es sich bei hochauflösenden Satellitenbildern nicht um zentralperspektivische Aufnahmen handelt, da diese durch einen Linienscanner aufgenommen wurden ('1D-Perspektive'). Weiters ist der Öffnungswinkel bei diesen Sensoren extrem klein, was die Sensorgeometrie sehr instabil macht. Zusätzlich werden die Kalibrierungsdaten (Elemente der inneren Orientierung) von den Anbietern nicht bekanntgegeben. Anhand von drei IKONOS Bildern und einem SPOT5 Bild, sowie zwei simulierten Datensätzen sollen das Affine Modell, das Parallel Projektive Modell, die Direkte Lineare Transformation, sowie ein parametrisches Modell, das vom CCRS (Canada Centre for Remote Sensing) entwickelt wurde, getestet, evaluiert und verglichen werden. Die Satellitenbildbetreiber (denen die Kalibierungsdaten bekannt sind) bieten für jedes Bild sogenannte RPCs (Rational Polynomial Coefficients) an, durch welche ein Zusammenhang zwischen Objekt- und Bildraum beschrieben wird. Es wurde getestet wie gut diese (über 80) Koeffizienten das Sensormodell beschreiben, und zusätzlich wird auch eine Strategie beschrieben, mit Hilfe welcher man die Koeffizienten selber berechnen kann. Die Untersuchungen zeigen, dass das Affine und Parallel Projektive Modell das wahre Sensormodell am besten repräsentieren. Die planimetrischen Genauigkeiten liegen hier bei der Einzelbildauswertung unter einem halben Pixel, was beim IKONOS Satelliten einer 0.5m und beim SPOT5 Satelliten einer 1.25m Auflösung entspricht. Interessant ist auch das Ergebnis, dass die selbst gerechneten RPCs eine höhere Genauigkeit aufweisen als die, die von den Anbietern vertrieben werden.