- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2005
Abschlussarbeiten 2005
Vergleich von Lösungsstrategien im Rahmen der GRACE-Schwerefeldprozessierung
Institut für Navigation und Satellitengeodaesie, Technische Universität Graz, 2005
Betreuer: Ao.Univ.-Prof. Mag.rer.nat. Dr.techn. Roland Pail
Kurzfassung/Abstract
Die Satellitenmission GRACE (Gravity Recovery And Climate Experiment) ist der präzisen Bestimmung des Erdgravitationsfeldes gewidmet. Das Messprinzip von GRACE basiert dabei auf satellite to satellite tracking im high-low und low-low mode. Die Arbeit geht auf drei mögliche Ansätze näher ein, und stellt die mathematischen Modelle im Detail vor. Es handelt sich dabei um die numerische Integration basierend auf Distanzen beziehungsweise auf Distanzänderungen, und das Energieintegral. Für die Untersuchung der Leistungscharakteristika der einzelnen Methoden wurden verschiedene Simulationen mit und ohne Rauschen durchgeführt. Es konnte gezeigt werden, dass im rauschfreien Fall die Lösungen aller Ansätze mit dem Referenzmodell bis auf numerische Genauigkeit übereinstimmten. Im Falle von verrauschten Beobachtungen zeigten sich die spezifischen Probleme der einzelnen Modelle. Mögliche Lösungsansätze für diese Probleme werden aufgezeigt. Aufgrund des großen Rechenaufwands der numerischen Integration, wurde die entsprechende Software für parallele Hardware adaptiert. Zusätzlich zu den simulierten Szenarien wurden auch reale Datensätze ausgewertet. Die dabei auftretenden Probleme werden aufgezeigt und mögliche Verbesserungen vorgeschlagen. Abschließend wurde ein Erdschwerefeld bis Grad und Ordnung 50 berechnet.
Die Satellitenmission GRACE (Gravity Recovery And Climate Experiment) ist der präzisen Bestimmung des Erdgravitationsfeldes gewidmet. Das Messprinzip von GRACE basiert dabei auf satellite to satellite tracking im high-low und low-low mode. Die Arbeit geht auf drei mögliche Ansätze näher ein, und stellt die mathematischen Modelle im Detail vor. Es handelt sich dabei um die numerische Integration basierend auf Distanzen beziehungsweise auf Distanzänderungen, und das Energieintegral. Für die Untersuchung der Leistungscharakteristika der einzelnen Methoden wurden verschiedene Simulationen mit und ohne Rauschen durchgeführt. Es konnte gezeigt werden, dass im rauschfreien Fall die Lösungen aller Ansätze mit dem Referenzmodell bis auf numerische Genauigkeit übereinstimmten. Im Falle von verrauschten Beobachtungen zeigten sich die spezifischen Probleme der einzelnen Modelle. Mögliche Lösungsansätze für diese Probleme werden aufgezeigt. Aufgrund des großen Rechenaufwands der numerischen Integration, wurde die entsprechende Software für parallele Hardware adaptiert. Zusätzlich zu den simulierten Szenarien wurden auch reale Datensätze ausgewertet. Die dabei auftretenden Probleme werden aufgezeigt und mögliche Verbesserungen vorgeschlagen. Abschließend wurde ein Erdschwerefeld bis Grad und Ordnung 50 berechnet.
Validierung und Qualitätsanalyse von Schwerefeldmodellen
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2005
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Kurzfassung/Abstract
Die Validierung und Qualitätsbeurteilung von globalen Erdschwerefeldmodellen, die aus satellitenbasierten Schwerefeldmissionen abgeleitet wurden, stellt ein komplexes Themengebiet dar. Bei der Auswertung globaler Messdaten stellt sich die Frage, wie man die Gültigkeit der Schwerefeldlösung überhaupt bestimmen und Möglichkeiten zur Qualitätsbeurteilung finden kann. Die vorliegende Diplomarbeit versucht auf diese Frage eine Antwort zu geben. Es wurde ein Software-Tool entwickelt, das die Schwerefeldmodelle, die mittels Koeffizienten harmonischer Kugelfunktionen parametrisiert wurden, anhand statistischer Hypothesentests untereinander vergleicht und beurteilt. Im Zuge der Untersuchungen werden auch die zugehörigen Varianz-Kovarianzinformationen berücksichtigt. Ein weiterer Lösungsaspekt wurde anhand lokaler Geoidlösungen implementiert. Das Verfahren der Hypothesentests wurde dabei auf den Vergleich von lokal berechneten Geoiddaten mit terrestrisch gemessenen Werten ausgeweitet. Die Software zur Lösung dieser Aufgaben wurde von Grund auf entwickelt, implementiert und anhand verschiedener Modelle ausführlich getestet. Mit realistischen Simulationen für die Schwerefeld Satellitenmission GOCE wurden die Anwendbarkeit und die Leistungsfähigkeit der entwickelten Software unter Beweis gestellt.
Die Validierung und Qualitätsbeurteilung von globalen Erdschwerefeldmodellen, die aus satellitenbasierten Schwerefeldmissionen abgeleitet wurden, stellt ein komplexes Themengebiet dar. Bei der Auswertung globaler Messdaten stellt sich die Frage, wie man die Gültigkeit der Schwerefeldlösung überhaupt bestimmen und Möglichkeiten zur Qualitätsbeurteilung finden kann. Die vorliegende Diplomarbeit versucht auf diese Frage eine Antwort zu geben. Es wurde ein Software-Tool entwickelt, das die Schwerefeldmodelle, die mittels Koeffizienten harmonischer Kugelfunktionen parametrisiert wurden, anhand statistischer Hypothesentests untereinander vergleicht und beurteilt. Im Zuge der Untersuchungen werden auch die zugehörigen Varianz-Kovarianzinformationen berücksichtigt. Ein weiterer Lösungsaspekt wurde anhand lokaler Geoidlösungen implementiert. Das Verfahren der Hypothesentests wurde dabei auf den Vergleich von lokal berechneten Geoiddaten mit terrestrisch gemessenen Werten ausgeweitet. Die Software zur Lösung dieser Aufgaben wurde von Grund auf entwickelt, implementiert und anhand verschiedener Modelle ausführlich getestet. Mit realistischen Simulationen für die Schwerefeld Satellitenmission GOCE wurden die Anwendbarkeit und die Leistungsfähigkeit der entwickelten Software unter Beweis gestellt.
Numerische Differentiationsverfahren mit voller Kovarianz-Information im Rahmen der GOCE-Erdschwerefeldlösung
Institut für Navigation und Satellitengeodaesie, Technische Universität Graz, 2005
Betreuer: Ao.Univ.-Prof. Mag.rer.nat. Dr.techn. Roland Pail
Kurzfassung/Abstract
Im Rahmen der Analyse der GOCE-Orbitdaten und der Berechnung des Erdschwerefeldes unter Anwendung des Energieintegral-Ansatzes ist es erforderlich, aus den kinematischen Orbit-Positionen die Geschwindigkeiten abzuleiten. Die Genauigkeit der Positionen wird dabei durch eine volle Varianz-Kovarianz-Matrix beschrieben. Es wurden unterschiedliche numerische Differentiationsverfahren implementiert und verglichen. Es wurde getestet, mit welchen Berechnungskonfigurationen im Falle von rauschfreien und verrauschten Positionszeitreihen die genauesten Geschwindigkeiten abgeleitet werden können. Die Hinzunahme einer vollbesetzten Varianz-Kovarianzmatrix bei den verrauschten Berechnungen konnte keine allzu große Genauigkeitssteigerung bewirken. Weiters wurden Geschwindigkeitsberechnungen mit Ausreißern in den Positionsdaten durchgeführt. Die abgeleiteten Geschwindigkeiten waren zunächst unzufriedenstellend und zeigten große Abweichungen zu den Referenzgeschwindigkeiten. Durch Hinzunahme der zu den Ausreißern gehörigen Kofaktoren in der Varianz - Kovarianzmatrix konnten brauchbare Ergebnisse ermittelt werden. Abschließend wurden für einige ausgewählte Konfigurationen die abgeleiteten Geschwindigkeiten dazu verwendet, um mittels Energieintegral-Ansatz Schwerefeldmodelle bis Grad und Ordnung 80 zu berechnen. Es wurde dabei festgestellt, dass die genauesten abgeleiteten Geschwindigkeiten aufgrund der Filterwirkung der Differentiatoren nicht immer die besten Schwerefeldmodelle liefern.
Im Rahmen der Analyse der GOCE-Orbitdaten und der Berechnung des Erdschwerefeldes unter Anwendung des Energieintegral-Ansatzes ist es erforderlich, aus den kinematischen Orbit-Positionen die Geschwindigkeiten abzuleiten. Die Genauigkeit der Positionen wird dabei durch eine volle Varianz-Kovarianz-Matrix beschrieben. Es wurden unterschiedliche numerische Differentiationsverfahren implementiert und verglichen. Es wurde getestet, mit welchen Berechnungskonfigurationen im Falle von rauschfreien und verrauschten Positionszeitreihen die genauesten Geschwindigkeiten abgeleitet werden können. Die Hinzunahme einer vollbesetzten Varianz-Kovarianzmatrix bei den verrauschten Berechnungen konnte keine allzu große Genauigkeitssteigerung bewirken. Weiters wurden Geschwindigkeitsberechnungen mit Ausreißern in den Positionsdaten durchgeführt. Die abgeleiteten Geschwindigkeiten waren zunächst unzufriedenstellend und zeigten große Abweichungen zu den Referenzgeschwindigkeiten. Durch Hinzunahme der zu den Ausreißern gehörigen Kofaktoren in der Varianz - Kovarianzmatrix konnten brauchbare Ergebnisse ermittelt werden. Abschließend wurden für einige ausgewählte Konfigurationen die abgeleiteten Geschwindigkeiten dazu verwendet, um mittels Energieintegral-Ansatz Schwerefeldmodelle bis Grad und Ordnung 80 zu berechnen. Es wurde dabei festgestellt, dass die genauesten abgeleiteten Geschwindigkeiten aufgrund der Filterwirkung der Differentiatoren nicht immer die besten Schwerefeldmodelle liefern.
Routenplanung für mobile Roboter
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2005
Betreuer: Ao.Univ.-Prof. Dr. Manfred Wieser
Kurzfassung/Abstract
Mit der Verfügbarkeit von immer leistungsfähigeren Computern und Sensoren sowie deren Miniaturisierung wächst auch das Betätigungsfeld von Robotern und damit auch die Anforderungen an deren navigatorisches Können. Dieses muss je nach Aufgabe mehr oder weniger stark ausgeprägt sein. Die Palette reicht von Bug-Algorithmen bei einfachen Staubsaugerrobotern, bis hin zu hochkomplexen Algorithmen, die mit Hilfe der robotereigenen Sensoren ein Umgebungsmodell erzeugen und sich in diesem bewegen, wie zum Beispiel im Fall der Mars-Rover. Diese Arbeit befasst sich mit der Aufgabe der Routenplanung für mobile Roboter anhand eines bekannten Umgebungsmodells. Dieses wird als statisch angenommen und verfügt über eine 2d-Ausdehnung. Es wird ein Überblick über die verschiedenen Methoden der Wegberechnung gegeben. Um ein tieferes Verständnis für die Arbeitweise der Methoden und die Problematik der Wegplanung für mobile Roboter im Allgemeinen zu erlangen, wurden zwei ausgewählte Methoden in einem einfachen Visual C++ Programm realisiert. Beide Verfahren sind sogenannte Straßenkarten Methoden; die eine erzeugt einen Sichtbarkeitsgraphen und die andere eine zufällige Straßenkarte, auf welche dann Routenplanungsalgorithmen zugreifen. Die Verfahren werden auf ihre Verwendbarkeit für die Anwendung in Gebäuden sowie im freien Feld untersucht. Abschließend werden die mittels des Dijkstra Algorithmus berechneten Routen vorgestellt und diskutiert.
Mit der Verfügbarkeit von immer leistungsfähigeren Computern und Sensoren sowie deren Miniaturisierung wächst auch das Betätigungsfeld von Robotern und damit auch die Anforderungen an deren navigatorisches Können. Dieses muss je nach Aufgabe mehr oder weniger stark ausgeprägt sein. Die Palette reicht von Bug-Algorithmen bei einfachen Staubsaugerrobotern, bis hin zu hochkomplexen Algorithmen, die mit Hilfe der robotereigenen Sensoren ein Umgebungsmodell erzeugen und sich in diesem bewegen, wie zum Beispiel im Fall der Mars-Rover. Diese Arbeit befasst sich mit der Aufgabe der Routenplanung für mobile Roboter anhand eines bekannten Umgebungsmodells. Dieses wird als statisch angenommen und verfügt über eine 2d-Ausdehnung. Es wird ein Überblick über die verschiedenen Methoden der Wegberechnung gegeben. Um ein tieferes Verständnis für die Arbeitweise der Methoden und die Problematik der Wegplanung für mobile Roboter im Allgemeinen zu erlangen, wurden zwei ausgewählte Methoden in einem einfachen Visual C++ Programm realisiert. Beide Verfahren sind sogenannte Straßenkarten Methoden; die eine erzeugt einen Sichtbarkeitsgraphen und die andere eine zufällige Straßenkarte, auf welche dann Routenplanungsalgorithmen zugreifen. Die Verfahren werden auf ihre Verwendbarkeit für die Anwendung in Gebäuden sowie im freien Feld untersucht. Abschließend werden die mittels des Dijkstra Algorithmus berechneten Routen vorgestellt und diskutiert.
Modellierung von zeitlichen Variationen des Schwerefeldes im Rahmen der GOCE - Datenauswertung
Institut für Navigation und Satellitengeodaesie, Technische Universität Graz, 2005
Betreuer: Ao.Univ.-Prof. Mag.rer.nat. Dr.techn. Roland Pail
Kurzfassung/Abstract
Für eine Reihe von geowissenschaftlichen Forschungen ist die Kenntnis eines globalen Geoids mit homogener Genauigkeit von großer Bedeutung. Da die Erde jedoch keine homogene Kugel ist, nimmt auch das Erdschwerefeld keinen konstanten Wert an. Diese Arbeit beschäftigt sich mit dem Phänomen von zeitlichen Variationen des Erdschwerefeldes. Im Blickpunkt stehen dabei die direkten (astronomischen) Gezeiten, die indirekten Erdgezeiten, die Ozeangezeiten sowie Einflüsse durch die Atmosphäre, die Landhydrologie und die Ozeantopographie. Es wird untersucht, wie stark die Schwankungen im Erdschwerefeld auf Grund der zeitlichen Effekte sind, und in welchem Ausmaß sie das Signal des Satellitensensors der Schwerefeldmission GOCE (Gravity field and steady-state Ocean Circulation Explorer) beeinflussen. Damit kann dann die Aussage getroffen werden, ob es möglich ist, Teile dieser zeitlichen Variationen direkt mit dem Sensor des Satelliten zu messen, oder ob im Nachhinein Korrekturen mit Hilfe von externen Modellen in Betracht gezogen werden müssen. Ursache für die größten Schwankungen sind die Erd- und Ozeangezeiten. Jedoch zeigten auch Effekte wie jene der Landhydrologie, der Ozeantopographie oder der Atmosphäre, dass es unumgänglich ist, die zeitlichen Variationen im Vorhinein aus geophysikalischen Modellen zu berechnen, da speziell langperiodische Variationen auf Grund der kurzen Messperioden von GOCE von zwei Mal 6 Monaten, und der zu geringen Messgenauigkeit kaum bestimmbar sind.
Für eine Reihe von geowissenschaftlichen Forschungen ist die Kenntnis eines globalen Geoids mit homogener Genauigkeit von großer Bedeutung. Da die Erde jedoch keine homogene Kugel ist, nimmt auch das Erdschwerefeld keinen konstanten Wert an. Diese Arbeit beschäftigt sich mit dem Phänomen von zeitlichen Variationen des Erdschwerefeldes. Im Blickpunkt stehen dabei die direkten (astronomischen) Gezeiten, die indirekten Erdgezeiten, die Ozeangezeiten sowie Einflüsse durch die Atmosphäre, die Landhydrologie und die Ozeantopographie. Es wird untersucht, wie stark die Schwankungen im Erdschwerefeld auf Grund der zeitlichen Effekte sind, und in welchem Ausmaß sie das Signal des Satellitensensors der Schwerefeldmission GOCE (Gravity field and steady-state Ocean Circulation Explorer) beeinflussen. Damit kann dann die Aussage getroffen werden, ob es möglich ist, Teile dieser zeitlichen Variationen direkt mit dem Sensor des Satelliten zu messen, oder ob im Nachhinein Korrekturen mit Hilfe von externen Modellen in Betracht gezogen werden müssen. Ursache für die größten Schwankungen sind die Erd- und Ozeangezeiten. Jedoch zeigten auch Effekte wie jene der Landhydrologie, der Ozeantopographie oder der Atmosphäre, dass es unumgänglich ist, die zeitlichen Variationen im Vorhinein aus geophysikalischen Modellen zu berechnen, da speziell langperiodische Variationen auf Grund der kurzen Messperioden von GOCE von zwei Mal 6 Monaten, und der zu geringen Messgenauigkeit kaum bestimmbar sind.
Map-Matching in der Fußgängernavigation für blinde Personen
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2005
Betreuer: Ao.Univ.-Prof. Dr. Manfred Wieser
Kurzfassung/Abstract
Die Verfügbarkeit von immer kompakteren und kostengünstigeren Navigationsgeräten ermöglicht, diese auch vermehrt im Bereich der Fußgängernavigation einzusetzen. Durch diese Entwicklung liegt es nahe, dass damit auch blinden Fußgängern eine zusätzliche Unterstützung zu Behelfen wie Blindenstock oder Blindenhund geboten werden kann. In der vorliegenden Arbeit wird versucht, die von einem Navigationsempfänger bestimmte, aktuelle Position eines blinden Fußgängers in eine digitale, vektorbasierte Karte abzubilden. Diese Georeferenzierung soll mit einem linienbasierten Trajektorienanpassungsverfahren realisiert werden und als Grundlage für Routenverfolgung und Zielführung dienen. Basis dafür ist ein digitales Modell des Straßennetzes der Stadt Graz. Die Arbeit gibt eine kurze Einführung in theoretische Grundlagen und beinhaltet eine allgemeine Betrachtung verschiedener Navigationssysteme und deren Aufbau. Verschiedene Ansätze für den Map-Matching-Prozess mittels Korrelationsverfahren beziehungsweise Koordinatentransformation werden genauer behandelt. Ergebnis ist die Implementierung eines Map-Matching-Algorithmus mittels ebener affiner Koordinatentransformation in der Programmiersprache C++. Abschließend wird der Algorithmus in einem praktischen Test anhand von Aufzeichnungen zweier Navigationsempfänger evaluiert. Die Erkenntnisse daraus sollen in das Blindennavigationsprojekt PONTES einfließen.
Die Verfügbarkeit von immer kompakteren und kostengünstigeren Navigationsgeräten ermöglicht, diese auch vermehrt im Bereich der Fußgängernavigation einzusetzen. Durch diese Entwicklung liegt es nahe, dass damit auch blinden Fußgängern eine zusätzliche Unterstützung zu Behelfen wie Blindenstock oder Blindenhund geboten werden kann. In der vorliegenden Arbeit wird versucht, die von einem Navigationsempfänger bestimmte, aktuelle Position eines blinden Fußgängers in eine digitale, vektorbasierte Karte abzubilden. Diese Georeferenzierung soll mit einem linienbasierten Trajektorienanpassungsverfahren realisiert werden und als Grundlage für Routenverfolgung und Zielführung dienen. Basis dafür ist ein digitales Modell des Straßennetzes der Stadt Graz. Die Arbeit gibt eine kurze Einführung in theoretische Grundlagen und beinhaltet eine allgemeine Betrachtung verschiedener Navigationssysteme und deren Aufbau. Verschiedene Ansätze für den Map-Matching-Prozess mittels Korrelationsverfahren beziehungsweise Koordinatentransformation werden genauer behandelt. Ergebnis ist die Implementierung eines Map-Matching-Algorithmus mittels ebener affiner Koordinatentransformation in der Programmiersprache C++. Abschließend wird der Algorithmus in einem praktischen Test anhand von Aufzeichnungen zweier Navigationsempfänger evaluiert. Die Erkenntnisse daraus sollen in das Blindennavigationsprojekt PONTES einfließen.
Technische und wirtschaftliche Gegenüberstellung von terrestrischem 3D-Laserscanning und reflektorloser Tachymeteraufnahme
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2005
Betreuer: Ass.-Prof. Dr. Viktor Kaufmann
Kurzfassung/Abstract
Das Themengebiet des terrestrischen 3D-Laserscannings und der tachymetrisch reflektorlosen Aufnahme ist Gegenstand dieser Diplomarbeit. Die beiden Vermessungsmethoden wurden auf die Möglichkeiten hinsichtlich der Gebäudevermessung untersucht und kritisch bewertet. Nach einer Einführung in das Themengebiet der 3D-Bauwerkserfassung werden insbesondere Aufnahmen mit dem HDS 3000 Laserscanner und dem reflektorlos messenden Tachymeter TCRA 1203 der Firma Leica Geosystems verglichen. Ein spezielles Augenmerk wird dabei auf die Fragen der Wirtschaftlichkeit und der Qualität der Ergebnisse gerichtet. Anhand von vier Beispielaufnahmen (Stift Zwettl, Druckerei Theiss, Karmeliterplatz Graz, Lindwurm Klagenfurt), die im Rahmen dieser praxisbezogenen Untersuchung durchgeführt wurden, wird dem Leser ein Überblick geboten, der die diversen Vor- und Nachteile der beiden Messmethoden veranschaulicht. Weiters wurden verschiedene kompetente Vertreter aus unterschiedlichen Fachrichtungen, die sich mit dem Thema der Bauwerksaufnahme befassen, in Form von standardisierten Fragebögen interviewt. Diese Interviews geben einen Überblick über den status quo sowie auch über zukünftige Entwicklungen im Bereich der Bauaufnahme. Anhand der durchgeführten Messungen, Auswertungen und Interviews kam ich zur persönlichen Erkenntnis, dass aufgrund der Vielschichtigkeit der Bauwerksaufnahmen der Einsatz des "richtigen" Messsystems von der jeweiligen Individualität des Zielobjektes abhängig ist.
Das Themengebiet des terrestrischen 3D-Laserscannings und der tachymetrisch reflektorlosen Aufnahme ist Gegenstand dieser Diplomarbeit. Die beiden Vermessungsmethoden wurden auf die Möglichkeiten hinsichtlich der Gebäudevermessung untersucht und kritisch bewertet. Nach einer Einführung in das Themengebiet der 3D-Bauwerkserfassung werden insbesondere Aufnahmen mit dem HDS 3000 Laserscanner und dem reflektorlos messenden Tachymeter TCRA 1203 der Firma Leica Geosystems verglichen. Ein spezielles Augenmerk wird dabei auf die Fragen der Wirtschaftlichkeit und der Qualität der Ergebnisse gerichtet. Anhand von vier Beispielaufnahmen (Stift Zwettl, Druckerei Theiss, Karmeliterplatz Graz, Lindwurm Klagenfurt), die im Rahmen dieser praxisbezogenen Untersuchung durchgeführt wurden, wird dem Leser ein Überblick geboten, der die diversen Vor- und Nachteile der beiden Messmethoden veranschaulicht. Weiters wurden verschiedene kompetente Vertreter aus unterschiedlichen Fachrichtungen, die sich mit dem Thema der Bauwerksaufnahme befassen, in Form von standardisierten Fragebögen interviewt. Diese Interviews geben einen Überblick über den status quo sowie auch über zukünftige Entwicklungen im Bereich der Bauaufnahme. Anhand der durchgeführten Messungen, Auswertungen und Interviews kam ich zur persönlichen Erkenntnis, dass aufgrund der Vielschichtigkeit der Bauwerksaufnahmen der Einsatz des "richtigen" Messsystems von der jeweiligen Individualität des Zielobjektes abhängig ist.
Digitale Karte zur Zielführung in einem Navigationssystem für blinde Personen
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2005
Betreuer: Ao.Univ.-Prof. Dr. Manfred Wieser
Kurzfassung/Abstract
Diese Magisterarbeit ist Teil des Forschungsprojektes PONTES (Positionierung und Navigation sehbehinderter Personen in städtischen Umgebungen). Ziel dieses Projektes ist die Entwicklung eines Demonstrator-Navigationssystems für blinde bzw. sehbehinderte Personen speziell angepasst auf deren Bedürfnisse. Die Aufgabe der Magisterarbeit ist einerseits die Erarbeitung dieser Bedürfnisse und Ansprüche an die Datengrundlage, die Routenplanung und die Zielführung in Zusammenarbeit mit blinden Menschen. Ein weiterer Schwerpunkt ist andererseits die Erstellung der gesamten Datenstruktur und Datenorganisation für die Routenplanung und Zielführung. Dies beinhaltet die Auswahl und Aufbereitung einer Datengrundlage in einem Testgebiet, sowie die Analyse der Qualität und Eignung der Daten für ein Navigationssystem für blinde Personen. Nach dieser Qualitätskontrolle erfolgt die Modellierung eines Wegenetzgraphen mit sämtlicher thematischer Information unter Verwendung eines Geoinformationssystems. Parallel dazu wird eine Datenbank unter Berücksichtigung sämtlicher Aspekte der Routenplanung und Zielführung erstellt. Zum Abschluss der Arbeit erfolgt die Konzeption der Datenstruktur und Datenorganisation für den Routing- beziehungsweise Zielführungsalgorithmus basierend auf der zuvor erstellten Datenbank.
Diese Magisterarbeit ist Teil des Forschungsprojektes PONTES (Positionierung und Navigation sehbehinderter Personen in städtischen Umgebungen). Ziel dieses Projektes ist die Entwicklung eines Demonstrator-Navigationssystems für blinde bzw. sehbehinderte Personen speziell angepasst auf deren Bedürfnisse. Die Aufgabe der Magisterarbeit ist einerseits die Erarbeitung dieser Bedürfnisse und Ansprüche an die Datengrundlage, die Routenplanung und die Zielführung in Zusammenarbeit mit blinden Menschen. Ein weiterer Schwerpunkt ist andererseits die Erstellung der gesamten Datenstruktur und Datenorganisation für die Routenplanung und Zielführung. Dies beinhaltet die Auswahl und Aufbereitung einer Datengrundlage in einem Testgebiet, sowie die Analyse der Qualität und Eignung der Daten für ein Navigationssystem für blinde Personen. Nach dieser Qualitätskontrolle erfolgt die Modellierung eines Wegenetzgraphen mit sämtlicher thematischer Information unter Verwendung eines Geoinformationssystems. Parallel dazu wird eine Datenbank unter Berücksichtigung sämtlicher Aspekte der Routenplanung und Zielführung erstellt. Zum Abschluss der Arbeit erfolgt die Konzeption der Datenstruktur und Datenorganisation für den Routing- beziehungsweise Zielführungsalgorithmus basierend auf der zuvor erstellten Datenbank.
Relevante GIS Analyse Module für das Hochwasser Management System der Stadt Graz
Institut für Geoinformation , Technische Universität Graz, 2005
Betreuer: Ao. Univ.-Prof, Dr.phil. Norbert Bartelme
in der Betreuung mitwirkende Person: Ass.-Prof., Dipl.-Ing. Dr.techn. Walter Klostius
Kurzfassung/Abstract
Die Hochwasserereignisse der letzten Jahre in Österreich, sowie den Nachbarländern, haben das Bewusstsein verstärkt, dass vermehrt Maßnahmen hinsichtlich Schutz und Vorhersage im Katastrophenfalle gesetzt werden müssen. Für den Aufbau eines Managements (Früherkennung, rechtzeitige Warnung, Einleitung geeigneter Maßnahmen) eignet sich ein GIS. Der Vorteil eines GIS ist die übersichtliche Evidenthaltung und gezielte Weiterverarbeitung der Geodaten (verschiedene Berufsgruppen können auf eine konsistente Datenbasis zurückgreifen). Ein GIS ermöglicht eine anwendungsspezifische Analyse und Visualisierung von Geodaten. Verschiedene Stadien, der Verlauf und 3D Ansichten der Überschwemmungszonen bzw. der Umgebung können erstellt und präsentiert werden. Für die Stadt Graz soll so ein Hochwassermanagementsystem in ArcGIS erstellt werden. Die entworfenen Werkzeuge sollen in Zukunft als Entscheidungshilfen im Katastrophenschutz eingesetzt werden. Diese Magisterarbeit, die auf zwei vorhergehenden Arbeiten aufgebaut ist, befasst sich mit der Weiterbearbeitung der relevanten Ausgangs- und Hydrologiedaten, der Programmierung der GIS Applikation und der Funktionalität des Programms HMS nach der Fertigstellung der ersten Phase des Projektes. Es wurden geeignete Werkzeuge zur Analyse und Visualisierung der Überschwemmung, der betroffenen Gebäude und Straßenzüge und der Routenplanung erstellt. Weiters können diese Ergebnisse zusätzlich in Form von Berichten und Tabellen ausgegeben werden.
Die Hochwasserereignisse der letzten Jahre in Österreich, sowie den Nachbarländern, haben das Bewusstsein verstärkt, dass vermehrt Maßnahmen hinsichtlich Schutz und Vorhersage im Katastrophenfalle gesetzt werden müssen. Für den Aufbau eines Managements (Früherkennung, rechtzeitige Warnung, Einleitung geeigneter Maßnahmen) eignet sich ein GIS. Der Vorteil eines GIS ist die übersichtliche Evidenthaltung und gezielte Weiterverarbeitung der Geodaten (verschiedene Berufsgruppen können auf eine konsistente Datenbasis zurückgreifen). Ein GIS ermöglicht eine anwendungsspezifische Analyse und Visualisierung von Geodaten. Verschiedene Stadien, der Verlauf und 3D Ansichten der Überschwemmungszonen bzw. der Umgebung können erstellt und präsentiert werden. Für die Stadt Graz soll so ein Hochwassermanagementsystem in ArcGIS erstellt werden. Die entworfenen Werkzeuge sollen in Zukunft als Entscheidungshilfen im Katastrophenschutz eingesetzt werden. Diese Magisterarbeit, die auf zwei vorhergehenden Arbeiten aufgebaut ist, befasst sich mit der Weiterbearbeitung der relevanten Ausgangs- und Hydrologiedaten, der Programmierung der GIS Applikation und der Funktionalität des Programms HMS nach der Fertigstellung der ersten Phase des Projektes. Es wurden geeignete Werkzeuge zur Analyse und Visualisierung der Überschwemmung, der betroffenen Gebäude und Straßenzüge und der Routenplanung erstellt. Weiters können diese Ergebnisse zusätzlich in Form von Berichten und Tabellen ausgegeben werden.
Breakline Modelling from Airborne Laser Scanner Data (Bruchkanten Modellierung aus flugzeuggetragenen Laserscanner Daten)
Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2005
1. Begutachter: o.Univ.Prof. Dr.-Ing. Karl Kraus, Institut für Photogrammetrie und Fernerkundung; 2. Begutachter: Dr. habil. Hans-Gerd Maas, Institut für Photogrammetrie und Fernerkundung, Technische Universität Dresden
Kurzfassung/Abstract
Das flugzeuggetragene Laserscanning (Airborne Laser Scanning, ALS) ermöglicht eine äußerst dichte großflächige Abtastung der Landschaftsoberfläche aufgrund des hohen Automatisierungsgrades. Auf Basis der aufgenommenen Punktwolke werden in der Folge Rastermodelle, Gittermodelle oder Triangulationen erstellt, die Bruchkanteninformation nur implizit beinhalten. Zur Ableitung hochqualitativer Oberflächenmodelle ist es hingegen notwendig diese Bruchkanteninformation explizit in der Modellierung zu berücksichtigen und anschließend in die Datenstruktur des resultierenden Oberflächenmodells zu integrieren. Daher ist eine explizite Modellierung der Bruchkanten auf Basis einer 3D Vektor Repräsentation notwendig. Der Schwerpunkt dieser Arbeit liegt in der Entwicklung von Methoden zur Ableitung von Bruchkanten aus Laser-Scanner-Daten. Am Anfang dieser Überlegungen steht eine Methode, die die Beschreibung von Bruchkanten auf Basis von umgebenden Punkten unabhängig von der Datenerfassungsmethode ermöglicht. Schrittweise wird dieses Basiskonzept verfeinert, um schlussendlich die Beschreibung der Bruchkanten auf Basis von unklassifizierten zufällig verteilten ALS-Punkten durchzuführen. Die aus dieser Erweiterung resultierende Methode beschreibt Bruchkanten als Schnittlinie von robust bestimmten analytischen Flächenpaaren, die auf Basis der Punkte in der Nähe der Bruchkante bestimmt werden. Durch die automatische robuste Elimination der Nicht-Bodenpunkte im Zuge der Flächenbestimmung wird eine Modellierung der Bruchkanten in bewaldeten Gebieten ermöglicht. Dieser Algorithmus benötigt zur Bestimmung der 3D Kante eine 2D Näherung der gesamten Bruchkante. Daher werden im Folgenden Strategien bzw. Lösungen angeführt, die eine stärkere Automatisierung der Bruchkantenbestimmung ermöglichen und so die Praxistauglichkeit erheblich erhöhen. Neben dem semi-automatischen Wachsen der Kanten, werden auch einige Ansätze zur Vollautomatisierung vorgestellt. Ein Abschnitt mit praktischen Beispielen demonstriert die Anwendbarkeit der entwickelten Methoden und geht neben der reinen Modellierung auch auf die Integration der Kanten in die Oberflächenmodellierung und auf die anschließende Datenreduktion ein. Um die vielseitigen Anwendungen der Methode zu präsentieren, folgen Beispiele aus der automatischen Bildzuordnung der Marsoberfläche (image matching) und aus dem Bereich des terrestrischen Laserscannings (TLS). Zusätzlich zu den topographischen Anwendungen wird ein kleines Beispiel der Gebäudekantenmodellierung auf Basis von TLS-Daten vorgestellt. Neben dem Schwerpunkt der Bruchkantenmodellierung widmet sich ein Teil der Arbeit dem aktuellen Stand der Forschung im Bereich ALS, Oberflächenmodellierung und Bruchkantenmodellierung, während sich ein weiterer Abschnitt mit der ALS-Datenaufnahme genauer auseinandersetzt. Neben einer genaueren Betrachtung der Methoden zur Entfernungsbestimmung wird das Abtastverhalten der ALS-Sensoren unter der Berücksichtigung der Größe des Abtastflecks untersucht. Abschließend werden, neben einem Ausblick auf zukünftige Forschungsaktivitäten, die Methoden und Ergebnisse zusammengefasst.
Das flugzeuggetragene Laserscanning (Airborne Laser Scanning, ALS) ermöglicht eine äußerst dichte großflächige Abtastung der Landschaftsoberfläche aufgrund des hohen Automatisierungsgrades. Auf Basis der aufgenommenen Punktwolke werden in der Folge Rastermodelle, Gittermodelle oder Triangulationen erstellt, die Bruchkanteninformation nur implizit beinhalten. Zur Ableitung hochqualitativer Oberflächenmodelle ist es hingegen notwendig diese Bruchkanteninformation explizit in der Modellierung zu berücksichtigen und anschließend in die Datenstruktur des resultierenden Oberflächenmodells zu integrieren. Daher ist eine explizite Modellierung der Bruchkanten auf Basis einer 3D Vektor Repräsentation notwendig. Der Schwerpunkt dieser Arbeit liegt in der Entwicklung von Methoden zur Ableitung von Bruchkanten aus Laser-Scanner-Daten. Am Anfang dieser Überlegungen steht eine Methode, die die Beschreibung von Bruchkanten auf Basis von umgebenden Punkten unabhängig von der Datenerfassungsmethode ermöglicht. Schrittweise wird dieses Basiskonzept verfeinert, um schlussendlich die Beschreibung der Bruchkanten auf Basis von unklassifizierten zufällig verteilten ALS-Punkten durchzuführen. Die aus dieser Erweiterung resultierende Methode beschreibt Bruchkanten als Schnittlinie von robust bestimmten analytischen Flächenpaaren, die auf Basis der Punkte in der Nähe der Bruchkante bestimmt werden. Durch die automatische robuste Elimination der Nicht-Bodenpunkte im Zuge der Flächenbestimmung wird eine Modellierung der Bruchkanten in bewaldeten Gebieten ermöglicht. Dieser Algorithmus benötigt zur Bestimmung der 3D Kante eine 2D Näherung der gesamten Bruchkante. Daher werden im Folgenden Strategien bzw. Lösungen angeführt, die eine stärkere Automatisierung der Bruchkantenbestimmung ermöglichen und so die Praxistauglichkeit erheblich erhöhen. Neben dem semi-automatischen Wachsen der Kanten, werden auch einige Ansätze zur Vollautomatisierung vorgestellt. Ein Abschnitt mit praktischen Beispielen demonstriert die Anwendbarkeit der entwickelten Methoden und geht neben der reinen Modellierung auch auf die Integration der Kanten in die Oberflächenmodellierung und auf die anschließende Datenreduktion ein. Um die vielseitigen Anwendungen der Methode zu präsentieren, folgen Beispiele aus der automatischen Bildzuordnung der Marsoberfläche (image matching) und aus dem Bereich des terrestrischen Laserscannings (TLS). Zusätzlich zu den topographischen Anwendungen wird ein kleines Beispiel der Gebäudekantenmodellierung auf Basis von TLS-Daten vorgestellt. Neben dem Schwerpunkt der Bruchkantenmodellierung widmet sich ein Teil der Arbeit dem aktuellen Stand der Forschung im Bereich ALS, Oberflächenmodellierung und Bruchkantenmodellierung, während sich ein weiterer Abschnitt mit der ALS-Datenaufnahme genauer auseinandersetzt. Neben einer genaueren Betrachtung der Methoden zur Entfernungsbestimmung wird das Abtastverhalten der ALS-Sensoren unter der Berücksichtigung der Größe des Abtastflecks untersucht. Abschließend werden, neben einem Ausblick auf zukünftige Forschungsaktivitäten, die Methoden und Ergebnisse zusammengefasst.
Relevante GIS Analyse Module für das Hochwasser Management System der Stadt Graz
Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2005
1. Begutachter: o.Univ. Prof. Dr.-Ing. Karl Kraus, Institut für Photogrammetrie und Fernerkundung
2. Begutachter: Ao.Univ.-Prof. Dipl.-Ing. Dr.techn. Klaus Hanke, Institut für Geodäsie, Universität Innsbruck
Kurzfassung/Abstract
Über die Qualität der Auswerteergebnisse, die aus digitalisierten bzw. digitalen Luftbildern entstehen, gibt es wenig wissenschaftliche Literatur. In diesem Beitrag werden deshalb umfangreiche Messreihen, die manuell und halbautomatisch entstanden sind, analysiert und unter anderem folgende Fragen erörtet: a) Wie genau ist die manuelle punkt- und linienweise Auswertung in Abhängigkeit von der Punktart und von der Linienart, vom Filmtyp (Farbe, Schwarzweiß), von der Pixelgröße, vom Bildmaßstab und von der Flughöhe? b) Wie genau ist die halbautomatische dreidimensionale Linienauswertung mit Snakes in Abhängigkeit von der Bildqualität und einiger unter a) genannten Einflussfaktoren? c) Welche Pixelgröße ist für die Messsicherheit und für die Messgenauigkeit am besten? d) Wie wird die Genauigkeit an rekonstruierten Objekten in Abhängigkeit vom Bildmaßstab und von der Flughöhe beeinflusst? Zusätzlich zu relativen Genauigkeiten, die aus Wiederholungsmessungen abgeleitet werden, werden auch einige absolute Genauigkeiten, die aus dem Vergleich mit terrestrischen Messungen entstehen, angegeben. Die Beantwortung der Fragen a) bis d) ist für die Praxis von großer Bedeutung. Die vorgeschlagenen Konzepte für die Analyse der Messreihen sind aus wissenschaftlicher Sicht von Interesse. Einige herausragende Ergebnisse sind: a) Die Linienauswertung in der digitalen Photogrammetrie entsteht punktweise. b) Die Genauigkeit der digitalen Linienauswertung ist der Genauigkeit der analytischen Punktmessung ebenbürtig. c) Die Bildmessgenauigkeit beträgt 1/2.5 Pixel. d) Die beste Bildmessgenauigkeit wird mit 20µmPixel erreicht. e) Die halbautomatische Methode liefert um 30% bessere Resultate.
Über die Qualität der Auswerteergebnisse, die aus digitalisierten bzw. digitalen Luftbildern entstehen, gibt es wenig wissenschaftliche Literatur. In diesem Beitrag werden deshalb umfangreiche Messreihen, die manuell und halbautomatisch entstanden sind, analysiert und unter anderem folgende Fragen erörtet: a) Wie genau ist die manuelle punkt- und linienweise Auswertung in Abhängigkeit von der Punktart und von der Linienart, vom Filmtyp (Farbe, Schwarzweiß), von der Pixelgröße, vom Bildmaßstab und von der Flughöhe? b) Wie genau ist die halbautomatische dreidimensionale Linienauswertung mit Snakes in Abhängigkeit von der Bildqualität und einiger unter a) genannten Einflussfaktoren? c) Welche Pixelgröße ist für die Messsicherheit und für die Messgenauigkeit am besten? d) Wie wird die Genauigkeit an rekonstruierten Objekten in Abhängigkeit vom Bildmaßstab und von der Flughöhe beeinflusst? Zusätzlich zu relativen Genauigkeiten, die aus Wiederholungsmessungen abgeleitet werden, werden auch einige absolute Genauigkeiten, die aus dem Vergleich mit terrestrischen Messungen entstehen, angegeben. Die Beantwortung der Fragen a) bis d) ist für die Praxis von großer Bedeutung. Die vorgeschlagenen Konzepte für die Analyse der Messreihen sind aus wissenschaftlicher Sicht von Interesse. Einige herausragende Ergebnisse sind: a) Die Linienauswertung in der digitalen Photogrammetrie entsteht punktweise. b) Die Genauigkeit der digitalen Linienauswertung ist der Genauigkeit der analytischen Punktmessung ebenbürtig. c) Die Bildmessgenauigkeit beträgt 1/2.5 Pixel. d) Die beste Bildmessgenauigkeit wird mit 20µmPixel erreicht. e) Die halbautomatische Methode liefert um 30% bessere Resultate.
Rasterbasierte Geländeoberflächenanalysen
Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2005
1. Begutachter: o.Univ.Prof. Dr.-Ing. Karl Kraus, Institut für Photogrammetrie und Fernerkundung
2. Begutachter: Prof. dr. sc. Teodor Fiedler, University of Zagreb
Kurzfassung/Abstract
Diese Arbeit befasst sich mit der rasterbasierten Geländeoberflächenanalyse von digitalen Geländemodellen, insbesondere von Geländemodellen, die vom flugzeuggetragenen Laserscanning stammen. Das flugzeuggetragene Laserscanning ist inzwischen das herausragende Verfahren zur Datenerfassung für sehr genaue Geländemodelle, vor allem in bewaldeten und bebauten Gebieten. Es gibt aber auch einige Schwächen des flugzeuggetragenen Laserscannings, die von der Geomorphologie des Geländes abhängen. Kritische Bereiche sind vor allem Täler mit dichter (und niedriger) Strauchvegetation, weil einerseits in solchen Bereichen die Datenerfassung stark beeinträchtigt ist und andererseits für die Elimination (Filterung) der Laserpunkte auch beziehungsweise in der Vegetation keine guten Voraussetzungen gegeben sind. Das Erkennen dieser Unzulänglichkeiten und das Erarbeiten von Methoden zu ihrer Behebung war die Hauptmotivation für diese Arbeit. Die eingeschlagene Konzeption geht davon aus, dass die Form der Geländeoberfläche durch geomorphologische Prozesse dynamisch gestaltet wird. Vor diesem Hintergrund können unerwartete geomorphologische Geländeformen definiert und mit Methoden der Geländeoberflächenanalyse in digitalen Geländemodellen detektiert werden. Anschließend können die unerwarteten geomorphologischen Geländeformen in digitalem Geländemodell überarbeitet und in realistischere Oberflächenformen überfuhrt werden. Für die Oberflächenanalyse haben rasterbasierte Methoden große Vorteile; sie sind sehr effizient und erlauben attraktive Visualisierungen; sie können auf das große Methodenangebot der digitalen Bildverarbeitung zurückgreifen. In dieser Arbeit wird auf rasterbasierte Oberflächenanalysen eingegangen, die auf morphometrischen und hydrologischen Gesetzen beruhen. Die hydrologisch basierte Oberflächenanalyse wird in Gebieten angewandt, die durch überwiegend fluviale Prozesse entstanden sind. Das unzulängliche Geländemodell wird (künstlich) beregnet und der Wasserabfluss wird modelliert. Das Ergebnis sind vor allem • Flussläufe, die als Strukturlinien in einem erneuten Modellierungsprozess einbezogen werden, und • abflusslose Räume (Mulden), die durch Absenken der sogenannten Muldenpfade beseitigt und hydrologisch plausibel gestaltet werden. Mit terrestrisch eingemessenen Kontrollpunkten konnte auch eine beachtliche Steigerung der absoluten Höhengenauigkeit festgestellt werden. Zusätzlich zum Testgebiet "Wienerwald", ein typisch fluvial gestaltetes Gelände, wurden die Methoden auch auf der Marsoberfläche im Gebiet des Vallis Marineris, dem größten Grabensystem am Mars, angewandt. Die Marsdaten stammen von der NASA-Mission MOLA (Mars Orbiter Laser Altimeter). Die hydrologischen und morphometrischen Analyseergebnisse geben detailliert Aufschluss über die Oberflächentopographie des Planeten Mars. Ihre Visualisierungen sind besonders attraktiv. Die erzielten Ergebnisse stehen nun für wissenschaftliche Untersuchungen der geologischen und klimatischen Geschichte des Planeten Mars zur Verfügung. Die Implementierung der erarbeiteten Methoden wurde im Geländemodell-Programmpaket SCOP++ vorgenommen. Dieses Programmpaket besitzt einen universellen Applikationsrahmen, mit dem die SCOP-Basissoftware verhältnismäßig leicht um ergänzende und neue Algorithmen erweitert werden kann.
Diese Arbeit befasst sich mit der rasterbasierten Geländeoberflächenanalyse von digitalen Geländemodellen, insbesondere von Geländemodellen, die vom flugzeuggetragenen Laserscanning stammen. Das flugzeuggetragene Laserscanning ist inzwischen das herausragende Verfahren zur Datenerfassung für sehr genaue Geländemodelle, vor allem in bewaldeten und bebauten Gebieten. Es gibt aber auch einige Schwächen des flugzeuggetragenen Laserscannings, die von der Geomorphologie des Geländes abhängen. Kritische Bereiche sind vor allem Täler mit dichter (und niedriger) Strauchvegetation, weil einerseits in solchen Bereichen die Datenerfassung stark beeinträchtigt ist und andererseits für die Elimination (Filterung) der Laserpunkte auch beziehungsweise in der Vegetation keine guten Voraussetzungen gegeben sind. Das Erkennen dieser Unzulänglichkeiten und das Erarbeiten von Methoden zu ihrer Behebung war die Hauptmotivation für diese Arbeit. Die eingeschlagene Konzeption geht davon aus, dass die Form der Geländeoberfläche durch geomorphologische Prozesse dynamisch gestaltet wird. Vor diesem Hintergrund können unerwartete geomorphologische Geländeformen definiert und mit Methoden der Geländeoberflächenanalyse in digitalen Geländemodellen detektiert werden. Anschließend können die unerwarteten geomorphologischen Geländeformen in digitalem Geländemodell überarbeitet und in realistischere Oberflächenformen überfuhrt werden. Für die Oberflächenanalyse haben rasterbasierte Methoden große Vorteile; sie sind sehr effizient und erlauben attraktive Visualisierungen; sie können auf das große Methodenangebot der digitalen Bildverarbeitung zurückgreifen. In dieser Arbeit wird auf rasterbasierte Oberflächenanalysen eingegangen, die auf morphometrischen und hydrologischen Gesetzen beruhen. Die hydrologisch basierte Oberflächenanalyse wird in Gebieten angewandt, die durch überwiegend fluviale Prozesse entstanden sind. Das unzulängliche Geländemodell wird (künstlich) beregnet und der Wasserabfluss wird modelliert. Das Ergebnis sind vor allem • Flussläufe, die als Strukturlinien in einem erneuten Modellierungsprozess einbezogen werden, und • abflusslose Räume (Mulden), die durch Absenken der sogenannten Muldenpfade beseitigt und hydrologisch plausibel gestaltet werden. Mit terrestrisch eingemessenen Kontrollpunkten konnte auch eine beachtliche Steigerung der absoluten Höhengenauigkeit festgestellt werden. Zusätzlich zum Testgebiet "Wienerwald", ein typisch fluvial gestaltetes Gelände, wurden die Methoden auch auf der Marsoberfläche im Gebiet des Vallis Marineris, dem größten Grabensystem am Mars, angewandt. Die Marsdaten stammen von der NASA-Mission MOLA (Mars Orbiter Laser Altimeter). Die hydrologischen und morphometrischen Analyseergebnisse geben detailliert Aufschluss über die Oberflächentopographie des Planeten Mars. Ihre Visualisierungen sind besonders attraktiv. Die erzielten Ergebnisse stehen nun für wissenschaftliche Untersuchungen der geologischen und klimatischen Geschichte des Planeten Mars zur Verfügung. Die Implementierung der erarbeiteten Methoden wurde im Geländemodell-Programmpaket SCOP++ vorgenommen. Dieses Programmpaket besitzt einen universellen Applikationsrahmen, mit dem die SCOP-Basissoftware verhältnismäßig leicht um ergänzende und neue Algorithmen erweitert werden kann.
VLBI as a tool to probe the ionosphere
Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2005
1. Begutachter: Prof. Dr.-Ing. Harald Schuh, Institut für Geodäsie und Geophysik, TU-Wien
2. Begutachter: Dr. Testuro Kondo, Kashima Space Research Center, National Institute of Information and Communications Technology (NICT), Japan
Kurzfassung/Abstract
Präzise Messungen auf zwei Frequenzen haben eine lange Tradition in der Geodäsie. Unter den verschiedenen Verfahren hat die Radiointerferometrie auf langen Basislinien (VLBI) bereits in den späten achtziger Jahren ihre routinemäßigen Beobachtungen begonnen und führt diese immer noch in beinahe unveränderter Art aus. Zwei-Frequenzempfänger, die Signale im X-und S-Band aufzeichnen, wurden konstruiert, um die ionosphärischen Laufzeitverzögerungen im geodätischen Auswerteprozess korrigieren zu können. Jedoch wurde der eigentlichen physikalischen Bedeutung dieser Korrektur lange Zeit keine Aufmerksamkeit gewidmet. Erst nachdem die Möglichkeit aufgezeigt worden war, Ionosphärenparameter aus GPS-Messungen zu bestimmen, setzte das Interesse ein, physikalische Zustandsgrößen der Ionosphäre mittels VLBI zu bestimmen. Diese Arbeit stellt ein Verfahren zur Bestimmung solcher Parameter vor, ohne Information von anderen Techniken zu benötigen. Da jedoch die VLBI ein differentielles Verfahren ist, liefert die gemessene Ionosphärenkorrektur nur eine Aussage über die Unterschiede des Ionosphärenzustandes zwischen den Stationen. Zusätzlich verfälschen instrumentelle Einflüsse an den Stationen die Ionosphärenkorrekturen. Innerhalb dieser Arbeit wird gezeigt wie Ionosphärenparameter, im speziellen vertikale Gesamtelektronendichtewerte, aus VLBI-Messungen gewonnen werden können. Die daraus erhaltenen Zeitserien werden mit GPS-Modellen, Satellitenaltimetrie-Messungen und theoretischen Modellen der Ionosphäre verglichen. Da VLBI als einziges geodätisches Weltraumverfahren, das im Radiofrequenzbereich beobachtet, den Zeitraum der letzten beiden Sonnenzyklen abdeckt, können auch die Zusammenhänge mit Parametern des Weltraumwetters untersucht werden. Die ermittelten Werte von VLBI und GPS stimmen innerhalb ihrer formalen Fehler überein und die Zeitserien aus beiden Verfahren beinhalten dieselben Perioden. Einzig VLBI ist in der Lage, langperiodische Signale wie den elfjährigen Sonnenzyklus exakt aufzudecken. Im weiteren Verlauf der Arbeit werden kleine systematische Unterschiede auf messspezifische Fehlerquellen und Modellierungsansätze zurückgeführt und es wird gezeigt, dass sich theoretische Modelle unter Berücksichtigung der VLBI-Ergebnisse verbessern lassen. Die mitgeschätzten instrumentellen Einflüsse reagieren auf kleinste Veränderungen an den Stationen und zeigen deutlich die Evolution der Empfangssysteme. Die Verwendung der Phaseninformation (fringe phases) als neues Forschungsgebiet innerhalb der geodätischen VLBI, wird ebenfalls behandelt. Phaseninformationen innerhalb eines Beobachtungszeitraums ermöglichen einen Nachweis von kurzperiodischen Variationen der Ionosphäre, sogenannten Szintillationen. In einem eigenen Kapitel dieser Arbeit wird gezeigt, wie solche ionosphärischen Störungen aus den Daten gewonnen werden und wie gut die Ergebnisse mit Resultaten anderer Verfahren übereinstimmen. VLBI kann daher sowohl langperiodische also auch kurzperiodische Variationen der Ionosphäre aufzuzeigen und bietet sich als neues unabhängiges Verfahren für die Untersuchung der Ionosphäre an.
Präzise Messungen auf zwei Frequenzen haben eine lange Tradition in der Geodäsie. Unter den verschiedenen Verfahren hat die Radiointerferometrie auf langen Basislinien (VLBI) bereits in den späten achtziger Jahren ihre routinemäßigen Beobachtungen begonnen und führt diese immer noch in beinahe unveränderter Art aus. Zwei-Frequenzempfänger, die Signale im X-und S-Band aufzeichnen, wurden konstruiert, um die ionosphärischen Laufzeitverzögerungen im geodätischen Auswerteprozess korrigieren zu können. Jedoch wurde der eigentlichen physikalischen Bedeutung dieser Korrektur lange Zeit keine Aufmerksamkeit gewidmet. Erst nachdem die Möglichkeit aufgezeigt worden war, Ionosphärenparameter aus GPS-Messungen zu bestimmen, setzte das Interesse ein, physikalische Zustandsgrößen der Ionosphäre mittels VLBI zu bestimmen. Diese Arbeit stellt ein Verfahren zur Bestimmung solcher Parameter vor, ohne Information von anderen Techniken zu benötigen. Da jedoch die VLBI ein differentielles Verfahren ist, liefert die gemessene Ionosphärenkorrektur nur eine Aussage über die Unterschiede des Ionosphärenzustandes zwischen den Stationen. Zusätzlich verfälschen instrumentelle Einflüsse an den Stationen die Ionosphärenkorrekturen. Innerhalb dieser Arbeit wird gezeigt wie Ionosphärenparameter, im speziellen vertikale Gesamtelektronendichtewerte, aus VLBI-Messungen gewonnen werden können. Die daraus erhaltenen Zeitserien werden mit GPS-Modellen, Satellitenaltimetrie-Messungen und theoretischen Modellen der Ionosphäre verglichen. Da VLBI als einziges geodätisches Weltraumverfahren, das im Radiofrequenzbereich beobachtet, den Zeitraum der letzten beiden Sonnenzyklen abdeckt, können auch die Zusammenhänge mit Parametern des Weltraumwetters untersucht werden. Die ermittelten Werte von VLBI und GPS stimmen innerhalb ihrer formalen Fehler überein und die Zeitserien aus beiden Verfahren beinhalten dieselben Perioden. Einzig VLBI ist in der Lage, langperiodische Signale wie den elfjährigen Sonnenzyklus exakt aufzudecken. Im weiteren Verlauf der Arbeit werden kleine systematische Unterschiede auf messspezifische Fehlerquellen und Modellierungsansätze zurückgeführt und es wird gezeigt, dass sich theoretische Modelle unter Berücksichtigung der VLBI-Ergebnisse verbessern lassen. Die mitgeschätzten instrumentellen Einflüsse reagieren auf kleinste Veränderungen an den Stationen und zeigen deutlich die Evolution der Empfangssysteme. Die Verwendung der Phaseninformation (fringe phases) als neues Forschungsgebiet innerhalb der geodätischen VLBI, wird ebenfalls behandelt. Phaseninformationen innerhalb eines Beobachtungszeitraums ermöglichen einen Nachweis von kurzperiodischen Variationen der Ionosphäre, sogenannten Szintillationen. In einem eigenen Kapitel dieser Arbeit wird gezeigt, wie solche ionosphärischen Störungen aus den Daten gewonnen werden und wie gut die Ergebnisse mit Resultaten anderer Verfahren übereinstimmen. VLBI kann daher sowohl langperiodische also auch kurzperiodische Variationen der Ionosphäre aufzuzeigen und bietet sich als neues unabhängiges Verfahren für die Untersuchung der Ionosphäre an.
Troposphärische Laufzeitverzögerung von GNSS-Signalen - Nutzen aktiver Referenzstationsnetze für die Meteorologie
Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2005
1. Begutachter: Ao.Prof. Dr. Dipl.-Ing. Robert Weber, Institut für Geodäsie und Geophysik, TU-Wien
2. Begutachter: Prof. Dr.-Ing. Matthias Becker, Institut f. Physikalische Geodäsie, TU-Darmstadt
Kurzfassung/Abstract
Satellitennavigationssysteme haben sich im Laufe der Jahre zu einer Schlüsseltechnologie entwickelt. Längst ist das für das Militär konzipierte System aus einer breiten Palette von Anwendungsbereichen nicht mehr wegzudenken. Dennoch öffnen sich auch heute noch neue Möglichkeiten der Nutzung, beispielsweise in der Meteorologie sowie Klimatologie. In diesem Zusammenhang bildet der Wasserdampf eine Schlüsselrolle. Der gesamte Feuchtegehalt der Atmosphäre ist in den untersten Troposphärenschichten (bis zu einer Höhe von 10 km) in Form von Wasserdampf gespeichert. Die Verteilung des Wasserdampfes ist wesentlich für das Wettergeschehen verantwortlich und somit von großer Bedeutung für Wettervorhersagen. Das durch die Atmosphäre laufende Mikrowellensignal wird durch Refraktion in der Ionosphäre und Troposphäre verzögert. Seit wenigen Jahren versucht man deshalb GNSS-Positionierungsverfahren zu invertieren und das hohe Genauigkeitspotenzial der Messgrößen zur Beobachtung der Atmosphäre heranzuziehen. Man nutzt die Kenntnis der Stationskoordinaten und der Bahndaten um die troposphärische Verzögerung zu berechnen. Genaue Messungen von Druck und Temperatur an der Bodenstation erlauben diese Verzögerung in einen hydrostatischen (trockenen) und einen Feuchtanteil aufzuspalten. Aus Letzterem kann der integrierte Wasserdampfgehalt (IWV - Integrated Water Vapour) berechnet werden. Der IWV über einer Station steht weiters in direktem Zusammenhang mit dem ausfällbaren Wasser (PW - Precipitable Water) - eine für die Meteorologie und Klimatologie wertvolle Größe. Ziel dieser Arbeit war es, aus den kontinuierlichen Messungen des österreichischen GNSS-Permanentnetzes möglichst rasch nach Datenaufnahme meteorologische Parameter abzuleiten. Für einen Datensatz von zwei Monaten wurden ZTDs (Zenith Total Delays) mit einer Auflösung von zwei Stunden berechnet und sowohl mit Abgaben des IGS, als auch mit Ergebnissen von Auswertezentren, die im Rahmen des COST-716 Projekts ‚Exploitation of Ground Based GPS for Climate and Numerical Weather Prediction’ entstanden, verglichen. Da für die Wettervorhersage die Ergebnisse innerhalb von einer Stunde benötigt werden, wurden Untersuchungen zur Verfügbarkeit, Zuverlässigkeit und zum Einfluss der Genauigkeit prädizierter Satellitenbahnen angestellt. Dabei konnte gezeigt werden, dass der Absolutbetrag der Differenz des ZTD basierend auf den rund zwei Wochen nach der Beobachtung generierten IGS Final Orbits und den bereits am Folgetag zur Verfügung stehenden Bahnen (IGS Rapid Orbits) generell 1.5 mm nicht übersteigt. Die Berechnungen basierend auf prädizierten Satellitenbahnen (IGS Ultra Rapid Orbits) zeigen hingegen mitunter größere Abweichungen. Die Differenzen im ZTD liegen zwar weitgehend unter 1 cm, können aber im Extremfall bis zu 10 cm ausmachen. Um bei Verwendung der prädizierten Bahnen dennoch die für Wetterprognosen erforderliche Genauigkeit im PW (±1 mm) garantieren zu können, wurde ein Verfahren zum Ausscheiden grob fehlerhafter Satellitenbahnen entwickelt. Zuletzt wurden Feuchtewerte einerseits basierend auf GNSS-Beobachtungen und andererseits auf Radiosondendaten gegenübergestellt, als auch mit Wetterkarten verglichen. Grundsätzlich zeigt sich eine gute Übereinstimmung, welche das große Potenzial dieses auf Navigationssatellitendaten gestutzten Messverfahrens in der Meteorologie und Klimaforschung bestätigt.
Satellitennavigationssysteme haben sich im Laufe der Jahre zu einer Schlüsseltechnologie entwickelt. Längst ist das für das Militär konzipierte System aus einer breiten Palette von Anwendungsbereichen nicht mehr wegzudenken. Dennoch öffnen sich auch heute noch neue Möglichkeiten der Nutzung, beispielsweise in der Meteorologie sowie Klimatologie. In diesem Zusammenhang bildet der Wasserdampf eine Schlüsselrolle. Der gesamte Feuchtegehalt der Atmosphäre ist in den untersten Troposphärenschichten (bis zu einer Höhe von 10 km) in Form von Wasserdampf gespeichert. Die Verteilung des Wasserdampfes ist wesentlich für das Wettergeschehen verantwortlich und somit von großer Bedeutung für Wettervorhersagen. Das durch die Atmosphäre laufende Mikrowellensignal wird durch Refraktion in der Ionosphäre und Troposphäre verzögert. Seit wenigen Jahren versucht man deshalb GNSS-Positionierungsverfahren zu invertieren und das hohe Genauigkeitspotenzial der Messgrößen zur Beobachtung der Atmosphäre heranzuziehen. Man nutzt die Kenntnis der Stationskoordinaten und der Bahndaten um die troposphärische Verzögerung zu berechnen. Genaue Messungen von Druck und Temperatur an der Bodenstation erlauben diese Verzögerung in einen hydrostatischen (trockenen) und einen Feuchtanteil aufzuspalten. Aus Letzterem kann der integrierte Wasserdampfgehalt (IWV - Integrated Water Vapour) berechnet werden. Der IWV über einer Station steht weiters in direktem Zusammenhang mit dem ausfällbaren Wasser (PW - Precipitable Water) - eine für die Meteorologie und Klimatologie wertvolle Größe. Ziel dieser Arbeit war es, aus den kontinuierlichen Messungen des österreichischen GNSS-Permanentnetzes möglichst rasch nach Datenaufnahme meteorologische Parameter abzuleiten. Für einen Datensatz von zwei Monaten wurden ZTDs (Zenith Total Delays) mit einer Auflösung von zwei Stunden berechnet und sowohl mit Abgaben des IGS, als auch mit Ergebnissen von Auswertezentren, die im Rahmen des COST-716 Projekts ‚Exploitation of Ground Based GPS for Climate and Numerical Weather Prediction’ entstanden, verglichen. Da für die Wettervorhersage die Ergebnisse innerhalb von einer Stunde benötigt werden, wurden Untersuchungen zur Verfügbarkeit, Zuverlässigkeit und zum Einfluss der Genauigkeit prädizierter Satellitenbahnen angestellt. Dabei konnte gezeigt werden, dass der Absolutbetrag der Differenz des ZTD basierend auf den rund zwei Wochen nach der Beobachtung generierten IGS Final Orbits und den bereits am Folgetag zur Verfügung stehenden Bahnen (IGS Rapid Orbits) generell 1.5 mm nicht übersteigt. Die Berechnungen basierend auf prädizierten Satellitenbahnen (IGS Ultra Rapid Orbits) zeigen hingegen mitunter größere Abweichungen. Die Differenzen im ZTD liegen zwar weitgehend unter 1 cm, können aber im Extremfall bis zu 10 cm ausmachen. Um bei Verwendung der prädizierten Bahnen dennoch die für Wetterprognosen erforderliche Genauigkeit im PW (±1 mm) garantieren zu können, wurde ein Verfahren zum Ausscheiden grob fehlerhafter Satellitenbahnen entwickelt. Zuletzt wurden Feuchtewerte einerseits basierend auf GNSS-Beobachtungen und andererseits auf Radiosondendaten gegenübergestellt, als auch mit Wetterkarten verglichen. Grundsätzlich zeigt sich eine gute Übereinstimmung, welche das große Potenzial dieses auf Navigationssatellitendaten gestutzten Messverfahrens in der Meteorologie und Klimaforschung bestätigt.
Demarcating Coal Fire Risk Areas Based on Spectral Test Sequences and Partial Unmixing Using Multi Sensor Remote Sensing Data
Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2005
1. Begutachter: Univ.Prof. Dipl.-Ing. Dr.techn. Wolfgang Wagner, Institut für Photogrammetrie und Fernerkundung
2. Begutachter: Univ.-Prof. Dr.rer.nat. Dipl.-Forstwirt Mathias Schardt, Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz
Kurzfassung/Abstract
Unkontrollierte Kohleflözbrände sind eine Naturkatastrophe und ein wirtschaftliche Problem globalen Ausmaßes. Die Brände existieren weltweit in über 15 Kohle fördernden Ländern und führen nicht nur zur Vernichtung der wertvollen wirtschaftlichen Ressource, sondern auch zu treibhausrelevanten Emissionen. Es wird angenommen, dass Kohlebrandemissionen einem Equivalent von 0,1 % bis 0,2 % der jährlichen anthropogen verursachten CO2 Emission entsprechen. Des Weiteren setzen sie toxische Gase frei, die sich schädlich auf die Gesundheit der Einwohner in den Kohlebrandregionen auswirken. Durch den Volumenschwund im Untergrund führen die Brände zudem zu langsamer Landabsenkung sowie Oberflächeneinbrüchen. Des Weiteren kommt es durch die aus Spalten emittierenden toxischen Gase zu Degradation und Absterben der Vegetation in der unmittelbaren Umgebung. In China existieren Kohlebrände in über 50 Kohlefeldern, die sich über den nördlichen Kohleabbaugürtel erstrecken. Dieser Gürtel dehnt sich 5000 km von Osten nach Westen über den gesamten nördlichen Teil des Landes aus. Der wirtschaftliche Verlust durch Kohlebrände wird in China auf 20 bis 30 Mio. Tonnen pro Jahr beziffert. Dies entspricht in etwa der deutschen Jahresproduktion an Steinkohle. Viele der Kohleabbauregionen befinden sich in entlegenen, nur dünn besiedelten Gebieten. Daher stellt die Fernerkundung ein kostengünstiges und robustes Werkzeug dar, um die Brandregionen auf lokalem, regionalem und landesweitem Maßstab zu untersuchen. Die Arbeit stellt einen konzeptuellen Ansatz und zwei Algorithmen zur automatisierten Ausweisung von Kohlebrandgebieten und zukünftigen Risikogebieten basierend auf Landsat-7 ETM+ und Aster Satellitendaten vor. Der Fokus liegt hierbei auf der Analyse multispektraler Satellitendaten zur Abgrenzung von Gegenden, in denen Kohlebrände mit hoher Wahrscheinlichkeit auftreten. Solche ausgewiesenen Bereiche unterstützen die Differenzierung Kohlebrand-bedingter und anderer Thermalanomalien. Zugleich kann die Ausweisung von Kohlebrand-Risikogebieten die Überwachung von Regionen unterstützen, die ein hohes Gefährdungspotential für die Entstehung der Brände- aber noch keine thermalen Anomalien aufweisen. Während drei Feldarbeitskampagnen in 2002, 2003 und 2004 konnte beobachtet werden, dass Thermalanomalien von oberflächennahen und unterirdischen Kohlebränden immer in der näheren Umgebung von Kohle an der Erdoberfläche auftreten. Dies können ausstreichende Kohleflöze, Kohleabraumhalden, Kohlelagerhalden oder Mineneingänge sein. Des Weiteren führen Kohlebrände zur Degradierung und dem Absterben von Vegetation in ihrer unmittelbaren Umgebung. Daher sind unterirdische Kohlebrände nicht unterhalb dicht mit Vegetation bedeckter Böden zu finden. Eine weitere Auswirkung der Brände ist die Entstehung pyrometamorphen Gesteines. Eine hohe thermale Intensität des Brandes vorausgesetzt, kommt es zu Farb- und Texturveränderungen des Umgebungsgesteines. Diese Auswirkungen können in Satellitendaten detektiert werden, wenn diese Gesteine in entsprechend großen Arealen an der Oberfläche exponiert sind. Basierend auf diesen Beobachtungen wurden in dieser Arbeit zwei Algorithmen entwickelt, um die drei Oberflächentypen aus Fernerkundungsdaten zu extrahieren und Kohlebrandgebiete automatisiert auszuweisen. Bei dem ersten Algorithmus handelt es sich um eine wissensbasierte spektrale Testsequenz, die die automatisierte Extraktion von Kohle, dichter Vegetation und pyrometamorphem Gestein ermöglicht. Kohleflächen werden ausgewiesen und ein Bereich in einem bestimmten Radius wird abgegrenzt. Dieser Radius kann durch den Einfallswinkel der Schichten sowie eine Tiefenbegrenzung von Kohlebränden definiert werden. Innerhalb des Radius' werden Gebiete dichter Vegetation eliminiert und pyrometamorphen Areale hervorgehoben. Der zweite Ansatz basiert auf linear partieller Entmischung. Kohleflächen, Areale dichter Vegetation und pyrometamophe Bereiche werden mit dieser quantitativen Methode bezüglich ihres prozentualen Sub-Pixel Anteiles extrahiert. Eine spektrale Datenbank, die aus Labor- und Feldmessungen von über 50 verschiedenen Proben erstellt wurde, dient als Referenzdatenbank für die Entmischung. Wie auch der wissensbasierte Ansatz ist diese Methode voll automatisierbar. Beide Algorithmen haben daher in Bezug auf eine großräumige Anwendung einen deutlichen Vorteil gegenüber gängigen überwachten Klassifikations- und Extraktionsmethoden, bei denen interaktive Schritte und ein deutlicher Einfluss des Bearbeiters unvermeidbar sind. Oberflächenextraktion und die Ausweisung von Kohlebrandgebieten wurde für eine acht ETM+ Szenen umfassende Zeitreihe sowie zwei Aster Szenen für die beiden Untersuchungsgebiete in China vorgenommen. Zusätzlich wurden außerhalb der Untersuchungsgebiete Datensätze für die Gegend Baotou, in Nord-China sowie für die Jharia- und Ray Kohleabbaugebiete in Indien und das Leigh Creek Kohleabbaugebiet in Australien analysiert, um den Transfer der Algorithmen zu demonstrieren. Basierend auf den Ergebnissen automatisierter Kohleextraktion kann ein deutlicher Anstieg der bergbaulichen Aktivitäten in den beiden chinesischen Untersuchungsgebieten innerhalb der letzten 15 Jahre aufgezeigt werden. Extraktionsgenauigkeiten wurden anhand umfangreicher Kartierungen von über 50 Arealen von Kohle-, Vegetation- und pyrometamophen Gestein sowie dem Vergleich mit sieben kartierten Mischungs-Rastern berechnet. Die Produzenten Genauigkeiten liegen dabei in den Untersuchungsgebieten für alle Oberflächen zwischen 76 % und 100 %. In den drei Gebieten, in denen der Transfer der Algorithmen getestet wurde liegen sie im Mittel bei 91 %. Neben den bekannten Kohlebrandbereichen in den beiden Untersuchungsgebieten konnten mehrere neue Kohlebrandgebiete und potentielle Risikogebiete ausgegliedert werden. Diese werden anhand detaillierter Karten vorgestellt. Innerhalb zwei dieser neu ausgewiesenen Kohlebrandgebiete konnten mehrere Thermalanomalien detektiert and bereits als vormals unbekannte Kohlebrände im Gelände verifiziert werden. Dadurch konnte gezeigt werden, dass mit Hilfe der automatisierten Ausweisung von Kohlebrandgebieten die Detektion unbekannter Kohlebrände in Fernerkundungsdaten möglich ist. Die Kombination der Ausweisung von Kohlebrandgebieten und Detektion von Thermalanomalien wurde anhand von sechs Szenen überprüft. Es konnte gezeigt werden, dass die Ausweisung von Brandgebieten die Zurückweisung fälschlich extrahierter Anomalien, die von Industrie, Siedlungen, Biomassebränden, Kalkbrennereien oder solaren Einflüssen resultieren, deutlich unterstützt. Sind Thermalanomalien außerhalb der ausgewiesenen Gebiete lokalisiert, handelt es sich mit hoher Wahrscheinlichkeit nicht um Kohlebrände. Thermalanomalien konnten hinsichtlich Anzahl und Gesamtgröße für alle prozessierten Szenen um über 50 % in Nachtszenen und über 80 % in Tagszenen reduziert werden. Die Ergebnisse dieser Arbeit zeigen, dass eine großflächige automatisierte Ausweisung von Kohlebrandgebieten und Risikogebieten möglich ist. In Kombination mir der Auswertung thermaler Daten können somit rezente Kohlebrandbereiche und potentielle Risikogebiete gezielt mit Methoden der Fernerkundung überwacht werden.
Unkontrollierte Kohleflözbrände sind eine Naturkatastrophe und ein wirtschaftliche Problem globalen Ausmaßes. Die Brände existieren weltweit in über 15 Kohle fördernden Ländern und führen nicht nur zur Vernichtung der wertvollen wirtschaftlichen Ressource, sondern auch zu treibhausrelevanten Emissionen. Es wird angenommen, dass Kohlebrandemissionen einem Equivalent von 0,1 % bis 0,2 % der jährlichen anthropogen verursachten CO2 Emission entsprechen. Des Weiteren setzen sie toxische Gase frei, die sich schädlich auf die Gesundheit der Einwohner in den Kohlebrandregionen auswirken. Durch den Volumenschwund im Untergrund führen die Brände zudem zu langsamer Landabsenkung sowie Oberflächeneinbrüchen. Des Weiteren kommt es durch die aus Spalten emittierenden toxischen Gase zu Degradation und Absterben der Vegetation in der unmittelbaren Umgebung. In China existieren Kohlebrände in über 50 Kohlefeldern, die sich über den nördlichen Kohleabbaugürtel erstrecken. Dieser Gürtel dehnt sich 5000 km von Osten nach Westen über den gesamten nördlichen Teil des Landes aus. Der wirtschaftliche Verlust durch Kohlebrände wird in China auf 20 bis 30 Mio. Tonnen pro Jahr beziffert. Dies entspricht in etwa der deutschen Jahresproduktion an Steinkohle. Viele der Kohleabbauregionen befinden sich in entlegenen, nur dünn besiedelten Gebieten. Daher stellt die Fernerkundung ein kostengünstiges und robustes Werkzeug dar, um die Brandregionen auf lokalem, regionalem und landesweitem Maßstab zu untersuchen. Die Arbeit stellt einen konzeptuellen Ansatz und zwei Algorithmen zur automatisierten Ausweisung von Kohlebrandgebieten und zukünftigen Risikogebieten basierend auf Landsat-7 ETM+ und Aster Satellitendaten vor. Der Fokus liegt hierbei auf der Analyse multispektraler Satellitendaten zur Abgrenzung von Gegenden, in denen Kohlebrände mit hoher Wahrscheinlichkeit auftreten. Solche ausgewiesenen Bereiche unterstützen die Differenzierung Kohlebrand-bedingter und anderer Thermalanomalien. Zugleich kann die Ausweisung von Kohlebrand-Risikogebieten die Überwachung von Regionen unterstützen, die ein hohes Gefährdungspotential für die Entstehung der Brände- aber noch keine thermalen Anomalien aufweisen. Während drei Feldarbeitskampagnen in 2002, 2003 und 2004 konnte beobachtet werden, dass Thermalanomalien von oberflächennahen und unterirdischen Kohlebränden immer in der näheren Umgebung von Kohle an der Erdoberfläche auftreten. Dies können ausstreichende Kohleflöze, Kohleabraumhalden, Kohlelagerhalden oder Mineneingänge sein. Des Weiteren führen Kohlebrände zur Degradierung und dem Absterben von Vegetation in ihrer unmittelbaren Umgebung. Daher sind unterirdische Kohlebrände nicht unterhalb dicht mit Vegetation bedeckter Böden zu finden. Eine weitere Auswirkung der Brände ist die Entstehung pyrometamorphen Gesteines. Eine hohe thermale Intensität des Brandes vorausgesetzt, kommt es zu Farb- und Texturveränderungen des Umgebungsgesteines. Diese Auswirkungen können in Satellitendaten detektiert werden, wenn diese Gesteine in entsprechend großen Arealen an der Oberfläche exponiert sind. Basierend auf diesen Beobachtungen wurden in dieser Arbeit zwei Algorithmen entwickelt, um die drei Oberflächentypen aus Fernerkundungsdaten zu extrahieren und Kohlebrandgebiete automatisiert auszuweisen. Bei dem ersten Algorithmus handelt es sich um eine wissensbasierte spektrale Testsequenz, die die automatisierte Extraktion von Kohle, dichter Vegetation und pyrometamorphem Gestein ermöglicht. Kohleflächen werden ausgewiesen und ein Bereich in einem bestimmten Radius wird abgegrenzt. Dieser Radius kann durch den Einfallswinkel der Schichten sowie eine Tiefenbegrenzung von Kohlebränden definiert werden. Innerhalb des Radius' werden Gebiete dichter Vegetation eliminiert und pyrometamorphen Areale hervorgehoben. Der zweite Ansatz basiert auf linear partieller Entmischung. Kohleflächen, Areale dichter Vegetation und pyrometamophe Bereiche werden mit dieser quantitativen Methode bezüglich ihres prozentualen Sub-Pixel Anteiles extrahiert. Eine spektrale Datenbank, die aus Labor- und Feldmessungen von über 50 verschiedenen Proben erstellt wurde, dient als Referenzdatenbank für die Entmischung. Wie auch der wissensbasierte Ansatz ist diese Methode voll automatisierbar. Beide Algorithmen haben daher in Bezug auf eine großräumige Anwendung einen deutlichen Vorteil gegenüber gängigen überwachten Klassifikations- und Extraktionsmethoden, bei denen interaktive Schritte und ein deutlicher Einfluss des Bearbeiters unvermeidbar sind. Oberflächenextraktion und die Ausweisung von Kohlebrandgebieten wurde für eine acht ETM+ Szenen umfassende Zeitreihe sowie zwei Aster Szenen für die beiden Untersuchungsgebiete in China vorgenommen. Zusätzlich wurden außerhalb der Untersuchungsgebiete Datensätze für die Gegend Baotou, in Nord-China sowie für die Jharia- und Ray Kohleabbaugebiete in Indien und das Leigh Creek Kohleabbaugebiet in Australien analysiert, um den Transfer der Algorithmen zu demonstrieren. Basierend auf den Ergebnissen automatisierter Kohleextraktion kann ein deutlicher Anstieg der bergbaulichen Aktivitäten in den beiden chinesischen Untersuchungsgebieten innerhalb der letzten 15 Jahre aufgezeigt werden. Extraktionsgenauigkeiten wurden anhand umfangreicher Kartierungen von über 50 Arealen von Kohle-, Vegetation- und pyrometamophen Gestein sowie dem Vergleich mit sieben kartierten Mischungs-Rastern berechnet. Die Produzenten Genauigkeiten liegen dabei in den Untersuchungsgebieten für alle Oberflächen zwischen 76 % und 100 %. In den drei Gebieten, in denen der Transfer der Algorithmen getestet wurde liegen sie im Mittel bei 91 %. Neben den bekannten Kohlebrandbereichen in den beiden Untersuchungsgebieten konnten mehrere neue Kohlebrandgebiete und potentielle Risikogebiete ausgegliedert werden. Diese werden anhand detaillierter Karten vorgestellt. Innerhalb zwei dieser neu ausgewiesenen Kohlebrandgebiete konnten mehrere Thermalanomalien detektiert and bereits als vormals unbekannte Kohlebrände im Gelände verifiziert werden. Dadurch konnte gezeigt werden, dass mit Hilfe der automatisierten Ausweisung von Kohlebrandgebieten die Detektion unbekannter Kohlebrände in Fernerkundungsdaten möglich ist. Die Kombination der Ausweisung von Kohlebrandgebieten und Detektion von Thermalanomalien wurde anhand von sechs Szenen überprüft. Es konnte gezeigt werden, dass die Ausweisung von Brandgebieten die Zurückweisung fälschlich extrahierter Anomalien, die von Industrie, Siedlungen, Biomassebränden, Kalkbrennereien oder solaren Einflüssen resultieren, deutlich unterstützt. Sind Thermalanomalien außerhalb der ausgewiesenen Gebiete lokalisiert, handelt es sich mit hoher Wahrscheinlichkeit nicht um Kohlebrände. Thermalanomalien konnten hinsichtlich Anzahl und Gesamtgröße für alle prozessierten Szenen um über 50 % in Nachtszenen und über 80 % in Tagszenen reduziert werden. Die Ergebnisse dieser Arbeit zeigen, dass eine großflächige automatisierte Ausweisung von Kohlebrandgebieten und Risikogebieten möglich ist. In Kombination mir der Auswertung thermaler Daten können somit rezente Kohlebrandbereiche und potentielle Risikogebiete gezielt mit Methoden der Fernerkundung überwacht werden.
Precision Target Mensuration in Vision Metrology (Hochgenaue Messung von Zielmarken in digitaler Nahbereichsphotogrammetrie)
Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2004
1. Begutachter: o.Univ.Prof. Dr.-Ing. Karl Kraus, Institut für Photogrammetrie und Fernerkundung
2. Begutachter: BAppSc, MSurvSc, PhD Clive S. Fraser, Department of Geomatics, Melbourne University
Kurzfassung/Abstract
Digitale Nahbereichsphotogrammetrie, im Englischen meist als "Vision Metrology" bezeichnet, wird heutzutage als flexibles und hochgenaues 3D-Meßverfahren in unterschiedlichen industriellen Bereichen verwendet. Durch die Verwendung spezieller Zielmarken ist eine hochgenaue Punktbestimmung markierter Objektpunkte möglich. Die erzielbare Punktgenauigkeit dieser Messmethode liegt bei 1/100.000 der Objektgröße. In diesem Zusammenhang wird der Begriff "Triangulierungsgenauigkeit" oft verwendet. Üblicherweise werden für die Signalisierung der Punkte kreisrunde Zielmarken verwendet. Diese erlauben höchste Genauigkeit zu erzielen. Neben Zielmarken aus retro-reflektierendem Material werden auch einfache weiße Marken auf schwarzem Hintergrund benutzt. Die Wahl des Zielmarkenmaterials bzw. -typs richtet sich nach der geforderten Genauigkeit und dem notwendigen Reflektionsgrad der Signale bei der Aufnahme der Bilder. Die Messgenauigkeit der Zielmarken ist einer der entscheidenden Faktoren für eine hohe Triangulierungsgenauigkeit. Mit Hilfe von speziellen Algorithmen werden die Zentren der Zielmarken im digitalen Bild ermittelt, welche es erlauben die Objektpunkte dreidimensional zu triangulieren. Dabei wird vorausgesetzt, dass Zielmarken "perfekte" Punkte im Raum darstellen, was aufgrund der Stärke des Markenmaterials und der Größe des Zielmarkendurchmessers nur bedingt der Fall ist. Diese Tatsache führt zu Exzentrizitäten zwischen den Zentren der abgebildeten Zielmarken und ihren tatsächlichen Mittelpunkten. Daraus resultieren Fehler im Berechnungsprozess, welche zu einer verfälschten Raumlage der Punkte führen. Ist die Orientierung der einzelnen Zielmarken bekannt, so können die entsprechenden Exzentrizitäten rechnerisch ermittelt und damit die Raumlage der Punkte korrigiert werden. Ein zentrales Ziel dieser Arbeit war die Entwicklung mathematischer Formeln und Algorithmen für die automatische Bestimmung der Kreisebenen der Zielmarken. Der dafür entworfene Prozess berechnet diese Ebenen in zwei Phasen. Zuerst wird die elliptische Form der abgebildeten Zielmarken aus den digitalen Bildern extrahiert. Anschließend wird diese Information für die eigentliche Berechnung der Kreisebene verwendet, wobei Ausgleichungsverfahren eingesetzt werden. Der dazu entwickelte Berechnungsprozess wurde in das photogrammetrische Softwarepaket Australis implementiert und anhand von praktischen Anwendungen evaluiert. Im weiteren Verlauf der Arbeit werden die Ergebnisse von Simulationsrechnungen präsentiert, welche den Einfluss von zwei unterschiedlichen Fehlerarten aufzeigen. Der erste Teil der Simulationen untersucht die Auswirkung der oben angeführten Exzentrizität auf die Objektpunkte. Die zweite Gruppe der Simulationsrechnungen analysiert den Fehlereinfluss von gekrümmten Zielmarken auf den Zielmarkenmessprozess. Dieser Einfluss ist vor allem bei der Vermessung von gewölbten Oberflächen interessant, da hier die Zielmarken direkt auf den zu bestimmenden Oberflächen fixiert werden. Obwohl bei den vorliegenden Untersuchungen primär theoretische Fragestellungen im Vordergrund stehen, widmet sich ein Teil der Arbeit auch der praktischen Relevanz der entwickelten Prozesse und Algorithmen. Dabei konnte bewiesen werden, dass die Berücksichtigung der Exzentrizitäten entsprechende Genauigkeitsvorteile bei hochgenauen Vermessungen bringt. Zusätzlich werden Vorteile für Oberflächenanalysen sowie Aufgaben mittlerer Genauigkeit aufgezeigt.
Digitale Nahbereichsphotogrammetrie, im Englischen meist als "Vision Metrology" bezeichnet, wird heutzutage als flexibles und hochgenaues 3D-Meßverfahren in unterschiedlichen industriellen Bereichen verwendet. Durch die Verwendung spezieller Zielmarken ist eine hochgenaue Punktbestimmung markierter Objektpunkte möglich. Die erzielbare Punktgenauigkeit dieser Messmethode liegt bei 1/100.000 der Objektgröße. In diesem Zusammenhang wird der Begriff "Triangulierungsgenauigkeit" oft verwendet. Üblicherweise werden für die Signalisierung der Punkte kreisrunde Zielmarken verwendet. Diese erlauben höchste Genauigkeit zu erzielen. Neben Zielmarken aus retro-reflektierendem Material werden auch einfache weiße Marken auf schwarzem Hintergrund benutzt. Die Wahl des Zielmarkenmaterials bzw. -typs richtet sich nach der geforderten Genauigkeit und dem notwendigen Reflektionsgrad der Signale bei der Aufnahme der Bilder. Die Messgenauigkeit der Zielmarken ist einer der entscheidenden Faktoren für eine hohe Triangulierungsgenauigkeit. Mit Hilfe von speziellen Algorithmen werden die Zentren der Zielmarken im digitalen Bild ermittelt, welche es erlauben die Objektpunkte dreidimensional zu triangulieren. Dabei wird vorausgesetzt, dass Zielmarken "perfekte" Punkte im Raum darstellen, was aufgrund der Stärke des Markenmaterials und der Größe des Zielmarkendurchmessers nur bedingt der Fall ist. Diese Tatsache führt zu Exzentrizitäten zwischen den Zentren der abgebildeten Zielmarken und ihren tatsächlichen Mittelpunkten. Daraus resultieren Fehler im Berechnungsprozess, welche zu einer verfälschten Raumlage der Punkte führen. Ist die Orientierung der einzelnen Zielmarken bekannt, so können die entsprechenden Exzentrizitäten rechnerisch ermittelt und damit die Raumlage der Punkte korrigiert werden. Ein zentrales Ziel dieser Arbeit war die Entwicklung mathematischer Formeln und Algorithmen für die automatische Bestimmung der Kreisebenen der Zielmarken. Der dafür entworfene Prozess berechnet diese Ebenen in zwei Phasen. Zuerst wird die elliptische Form der abgebildeten Zielmarken aus den digitalen Bildern extrahiert. Anschließend wird diese Information für die eigentliche Berechnung der Kreisebene verwendet, wobei Ausgleichungsverfahren eingesetzt werden. Der dazu entwickelte Berechnungsprozess wurde in das photogrammetrische Softwarepaket Australis implementiert und anhand von praktischen Anwendungen evaluiert. Im weiteren Verlauf der Arbeit werden die Ergebnisse von Simulationsrechnungen präsentiert, welche den Einfluss von zwei unterschiedlichen Fehlerarten aufzeigen. Der erste Teil der Simulationen untersucht die Auswirkung der oben angeführten Exzentrizität auf die Objektpunkte. Die zweite Gruppe der Simulationsrechnungen analysiert den Fehlereinfluss von gekrümmten Zielmarken auf den Zielmarkenmessprozess. Dieser Einfluss ist vor allem bei der Vermessung von gewölbten Oberflächen interessant, da hier die Zielmarken direkt auf den zu bestimmenden Oberflächen fixiert werden. Obwohl bei den vorliegenden Untersuchungen primär theoretische Fragestellungen im Vordergrund stehen, widmet sich ein Teil der Arbeit auch der praktischen Relevanz der entwickelten Prozesse und Algorithmen. Dabei konnte bewiesen werden, dass die Berücksichtigung der Exzentrizitäten entsprechende Genauigkeitsvorteile bei hochgenauen Vermessungen bringt. Zusätzlich werden Vorteile für Oberflächenanalysen sowie Aufgaben mittlerer Genauigkeit aufgezeigt.
Ein allgemeiner Ansatz zur Georefernzierung von multispektralen Flugzeugscanneraufnahmen
Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2005
1. Begutachter: o.Univ.Prof. Dr.-Ing. Karl Kraus
2. Begutachter: Ao.Univ.Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Das Bedürfnis nach möglichst aktuellen, rasch verfügbaren und detaillierten Informationen über die Erdoberfläche, z. B. in Form von Orthophotos, hat in den letzten Jahren rapide zugenommen. Zur Erfüllung dieses Bedürfnisses sind flugzeuggetragene digitale Aufnahmesysteme aufgrund ihrer flexiblen Einsatzmöglichkeit und aufgrund des durchgehenden digitalen Datenflusses von der Aufnahme bis zum Endprodukt besonders geeignet. Digitale multispektrale Aufnahmesysteme unterscheiden sich gemäß ihrem Aufnahmeprinzip in digitale Flächenkameras und in zeilenweise aufnehmende Systeme (Scannersysteme); letztere werden weiter unterteilt in Ein- und Mehr-Zeilenkameras sowie Rotationsscanner. Je nach Aufgabenstellung kommen unterschiedliche, zum Teil sehr spezialisierte Systeme zum Einsatz; so bieten beispielsweise Rotationsscanner die Möglichkeit der Aufzeichnung von Thermalstrahlung. Eine wesentliche Voraussetzung für die weitere Nutzung multispektraler Aufnahmen z. B. in einem geographischen Informationssystem ist deren Georeferenzierung. Die Georeferenzierung multispektraler Aufnahmen beinhaltet die Sensororientierung und die nachfolgende Orthophotoherstellung. Für multispektrale Flugzeugscanneraufnahmen werden dabei aufgrund des hoch-dynamischen Aufnahmeverfahrens und der damit verbundenen stetigen Änderung der äußeren Orientierung entlang der Flugbahn erhöhte Ansprüche an das mathematische Modell gestellt. Weiters sind zur Sensororientierung genügend Informationen in Form von Passinformationen am Boden und/oder direkte Beobachtungen der äußeren Orientierungsparameter entlang der Flugbahn notwendig. Letztere werden heutzutage durch den kombinierten Einsatz von Scannersystemen mit integrierten GPS/INS-Systemen (Global Positioning System / Inertial Navigation System) ermöglicht, was dem Einsatz von flugzeuggetragenen Scannersystemen zu einem regelrechten Durchbruch verholfen hat. Dagegen konnten bei älteren multispektrale Scanneraufnahmen die Parameter der äußeren Orientierung noch nicht oder nur zum Teil während des Fluges registriert werden. Die Georeferenzierung solcher Aufnahmen setzt die Verfügbarkeit von genügend Passinformationen am Boden voraus und stellt einen erheblichen Aufwand dar. Dieser Aufwand ist jedoch in Einzelfällen, z. B. wenn die Daten für Zeitreihen von Interesse sind, gerechtfertigt. Die qualitativ hochwertige Georeferenzierung von multispektralen Scanneraufnahmen mit oder ohne GPS/INS-Unterstützung bedarf eines allgemeinen anwendbaren Ansatzes zur Sensororientierung. In dieser Arbeit wird ein solcher allgemeiner Ansatz präsentiert und seine Praxistauglichkeit an realen Datensätzen erprobt. Der Ansatz wurde am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien entwickelt und im hybriden Ausgleichungsprogramm ORIENT implementiert. Zur Modellierung der zeitlichen Variation der äußeren Orientierung entlang der Flugbahn werden zusammengesetzte kubische Polynome verwendet, die in den sogenannten Knotenpunkten mit zumindest erster stetiger Ableitung zusammenstoßen. Die Bestimmung der Orientierungsfunktion kann einerseits indirekt über Passinformationen am Boden (Punkte und Linienelemente) oder/und direkt bzw. integriert mittels GPS/INS-Beobachtungen erfolgen. Zur Erprobung des Ansatzes wurden vom Österreichischen Bundesinstitut für Gesundheitswesen Daten zweier Messflüge von Wien aus den Jahren 1997 und 2000 zur Verfügung gestellt. Bei beiden Flügen kam als Aufnahmesystem der multispektrale Rotationsscanner Daedalus AADS 1268 Airborne Thematic Mapper (ATM) zum Einsatz. Der Messflug 1997 erfolgte noch ohne GPS/INS-Unterstützung, dagegen war für den Messflug 2000 schon GPS/INS-Unterstützung verfügbar. Die erzielte hohe Qualität der Georeferenzierung dieser praktischen Anwendungen bestätigt die Leistungsfähigkeit der präsentierten Methode und ihrer EDV-mäßigen Implementierung.
Das Bedürfnis nach möglichst aktuellen, rasch verfügbaren und detaillierten Informationen über die Erdoberfläche, z. B. in Form von Orthophotos, hat in den letzten Jahren rapide zugenommen. Zur Erfüllung dieses Bedürfnisses sind flugzeuggetragene digitale Aufnahmesysteme aufgrund ihrer flexiblen Einsatzmöglichkeit und aufgrund des durchgehenden digitalen Datenflusses von der Aufnahme bis zum Endprodukt besonders geeignet. Digitale multispektrale Aufnahmesysteme unterscheiden sich gemäß ihrem Aufnahmeprinzip in digitale Flächenkameras und in zeilenweise aufnehmende Systeme (Scannersysteme); letztere werden weiter unterteilt in Ein- und Mehr-Zeilenkameras sowie Rotationsscanner. Je nach Aufgabenstellung kommen unterschiedliche, zum Teil sehr spezialisierte Systeme zum Einsatz; so bieten beispielsweise Rotationsscanner die Möglichkeit der Aufzeichnung von Thermalstrahlung. Eine wesentliche Voraussetzung für die weitere Nutzung multispektraler Aufnahmen z. B. in einem geographischen Informationssystem ist deren Georeferenzierung. Die Georeferenzierung multispektraler Aufnahmen beinhaltet die Sensororientierung und die nachfolgende Orthophotoherstellung. Für multispektrale Flugzeugscanneraufnahmen werden dabei aufgrund des hoch-dynamischen Aufnahmeverfahrens und der damit verbundenen stetigen Änderung der äußeren Orientierung entlang der Flugbahn erhöhte Ansprüche an das mathematische Modell gestellt. Weiters sind zur Sensororientierung genügend Informationen in Form von Passinformationen am Boden und/oder direkte Beobachtungen der äußeren Orientierungsparameter entlang der Flugbahn notwendig. Letztere werden heutzutage durch den kombinierten Einsatz von Scannersystemen mit integrierten GPS/INS-Systemen (Global Positioning System / Inertial Navigation System) ermöglicht, was dem Einsatz von flugzeuggetragenen Scannersystemen zu einem regelrechten Durchbruch verholfen hat. Dagegen konnten bei älteren multispektrale Scanneraufnahmen die Parameter der äußeren Orientierung noch nicht oder nur zum Teil während des Fluges registriert werden. Die Georeferenzierung solcher Aufnahmen setzt die Verfügbarkeit von genügend Passinformationen am Boden voraus und stellt einen erheblichen Aufwand dar. Dieser Aufwand ist jedoch in Einzelfällen, z. B. wenn die Daten für Zeitreihen von Interesse sind, gerechtfertigt. Die qualitativ hochwertige Georeferenzierung von multispektralen Scanneraufnahmen mit oder ohne GPS/INS-Unterstützung bedarf eines allgemeinen anwendbaren Ansatzes zur Sensororientierung. In dieser Arbeit wird ein solcher allgemeiner Ansatz präsentiert und seine Praxistauglichkeit an realen Datensätzen erprobt. Der Ansatz wurde am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien entwickelt und im hybriden Ausgleichungsprogramm ORIENT implementiert. Zur Modellierung der zeitlichen Variation der äußeren Orientierung entlang der Flugbahn werden zusammengesetzte kubische Polynome verwendet, die in den sogenannten Knotenpunkten mit zumindest erster stetiger Ableitung zusammenstoßen. Die Bestimmung der Orientierungsfunktion kann einerseits indirekt über Passinformationen am Boden (Punkte und Linienelemente) oder/und direkt bzw. integriert mittels GPS/INS-Beobachtungen erfolgen. Zur Erprobung des Ansatzes wurden vom Österreichischen Bundesinstitut für Gesundheitswesen Daten zweier Messflüge von Wien aus den Jahren 1997 und 2000 zur Verfügung gestellt. Bei beiden Flügen kam als Aufnahmesystem der multispektrale Rotationsscanner Daedalus AADS 1268 Airborne Thematic Mapper (ATM) zum Einsatz. Der Messflug 1997 erfolgte noch ohne GPS/INS-Unterstützung, dagegen war für den Messflug 2000 schon GPS/INS-Unterstützung verfügbar. Die erzielte hohe Qualität der Georeferenzierung dieser praktischen Anwendungen bestätigt die Leistungsfähigkeit der präsentierten Methode und ihrer EDV-mäßigen Implementierung.
Automatisierte Erstellung und Aktualisierung von Digitalen Stadtmodellen mittels hochauflösender Zeilenscanner
Fakultät für Mathematik und Geoinformation, Technische Universität Wien, 2005
1. Begutachter: Jansa
2. Begutachter: Prof. Dr. Andreas Georgopoulos (Professor N.T.U.A.), Faculty of Rural & Surveying Engineering, Laboratory of Photogrammetry, Georgopoulos, Athens National Technical University
Kurzfassung/Abstract
Digitale Stadtmodelle zählen zu den begehrtesten Produkten der Photogrammetrie und Fernerkundung. Die Erstellung und Aktualisierung dieser Modelle gehört zu den zeitaufwendigsten und teuersten Aufgaben, die in der Regel manuell durchgeführt werden. Ziel dieser Arbeit ist es eine automatisierte Methode zu entwickeln, die möglichst selbständig digitale Stadtmodelle erzeugt und aktualisiert. Als Grundlage sollen panchromatische Stereo-Bilder von hochauflösenden flugzeug- und satellitengetragenen Zeilenscannern dienen. Die vorgeschlagene Vorgehensweise kann in 3 wesentliche Schritte eingeteilt werden: Datenvorbearbeitung, Gebäudeextraktion (entspricht der Erstellung des Stadtmodells) und Feststellung von Veränderungen sowie Aktualisierung alter Datenbestände. Der erste Schritt beinhaltet die Akquisition und Orientierung der Bilddaten, sowie die Erstellung von Oberflächenmodellen und den daraus abgeleiteten normalisierten Geländemodellen. Bei der Gebäudeextraktion werden vorerst Regionen gesucht in denen potentielle Gebäudekandidaten existieren könnten. Dies geschieht durch eine Grauwertanalyse im Bild und einer Höheneinschränkung im normalisierten Geländemodell. In Folge werden die geometrischen Eigenschaften der gefundenen Gebäude mit Hilfe eines adaptiven Region Growings und einer darauffolgenden Hough-Transformation extrahiert. Die errechneten Gebäudeecken werden in einer Datenbank abgelegt und können zur Auffindung von Veränderungen verwendet werden. Da diese Methode auf Gebäude, die eine Mindestgrösse von ca. 25 Pixeln haben eingeschränkt ist, wurden weiters zwei alternative Ansätze untersucht: Gebäudeextraktion mittels Bildmatchings oder mittels Texturanalyse. Die Qualitätsanalyse der Ergebnisse zeigt, dass die untersuchte Methode des adaptiven Region Growings mit der darauffolgenden Hough-Transformation, sehr erfolgreich ist. Das Bildmatching liefert in kleinmasstäbigem Bildmaterial gute Resultate. Die Methodik basierend auf der vorgeschlagenen Texturanalyse ist hingegen nicht empfehlenswert, um einzelne Gebäude zu detektieren und extrahieren.
Digitale Stadtmodelle zählen zu den begehrtesten Produkten der Photogrammetrie und Fernerkundung. Die Erstellung und Aktualisierung dieser Modelle gehört zu den zeitaufwendigsten und teuersten Aufgaben, die in der Regel manuell durchgeführt werden. Ziel dieser Arbeit ist es eine automatisierte Methode zu entwickeln, die möglichst selbständig digitale Stadtmodelle erzeugt und aktualisiert. Als Grundlage sollen panchromatische Stereo-Bilder von hochauflösenden flugzeug- und satellitengetragenen Zeilenscannern dienen. Die vorgeschlagene Vorgehensweise kann in 3 wesentliche Schritte eingeteilt werden: Datenvorbearbeitung, Gebäudeextraktion (entspricht der Erstellung des Stadtmodells) und Feststellung von Veränderungen sowie Aktualisierung alter Datenbestände. Der erste Schritt beinhaltet die Akquisition und Orientierung der Bilddaten, sowie die Erstellung von Oberflächenmodellen und den daraus abgeleiteten normalisierten Geländemodellen. Bei der Gebäudeextraktion werden vorerst Regionen gesucht in denen potentielle Gebäudekandidaten existieren könnten. Dies geschieht durch eine Grauwertanalyse im Bild und einer Höheneinschränkung im normalisierten Geländemodell. In Folge werden die geometrischen Eigenschaften der gefundenen Gebäude mit Hilfe eines adaptiven Region Growings und einer darauffolgenden Hough-Transformation extrahiert. Die errechneten Gebäudeecken werden in einer Datenbank abgelegt und können zur Auffindung von Veränderungen verwendet werden. Da diese Methode auf Gebäude, die eine Mindestgrösse von ca. 25 Pixeln haben eingeschränkt ist, wurden weiters zwei alternative Ansätze untersucht: Gebäudeextraktion mittels Bildmatchings oder mittels Texturanalyse. Die Qualitätsanalyse der Ergebnisse zeigt, dass die untersuchte Methode des adaptiven Region Growings mit der darauffolgenden Hough-Transformation, sehr erfolgreich ist. Das Bildmatching liefert in kleinmasstäbigem Bildmaterial gute Resultate. Die Methodik basierend auf der vorgeschlagenen Texturanalyse ist hingegen nicht empfehlenswert, um einzelne Gebäude zu detektieren und extrahieren.
Towards travel diaries
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuer/Gutachter: Prof. Dipl.-Ing. Dr. Stephan Winter (University of Melbourne, Department of Geomatics, Australien), Mag. Dr. Oswald Jochum, M.A. (FH Technikum Kärnten)
Kurzfassung/Abstract
In dieser Diplomarbeit wird die Metapher eines Reisetagebuchs verwendet, um Daten über die Bewegungen eines mobilen Agenten im Raum zu untersuchen. Es werden Methoden angewandt, die aufeinander folgende Positionen einer Wegaufzeichnung hinsichtlich ihrer räumlichen und zeitlichen Werte klassifizieren, mit dem Ziel, die quantitativen Daten der Wegaufzeichnung in eine qualitative Abfolge von Tagebucheinträgen zusammenzufassen. Der Algorithmus von Hariharan and Toyama (2004) wird in der freien statistischen Software R implementiert. Zeitlich und räumlich begrenzte Aufenthalte des Agenten in der Wegaufzeichnung werden mit Hilfe des Algorithmus unter der Verwendung von hierarchisch agglomerativem Clustering erkannt. Die Testdaten sind die Wegaufzeichnungen einer Person, welche über einen Zeitraum von 10 Tagen mittels GPS gesammelt wurden. Über denselben Zeitraum hinweg wurde ein traditionelles Papier-Bleistift Reisetagebuch geführt. Die Inhalte der Einträge in diesem Papier-Bleistift Reisetagebuchs werden aus kognitiver Sicht analysiert und des weiteren für den Vergleich mit den automatisch erzeugten Einträgen verwendet. Dieser Vergleich zeigt Verknüpfungspunkte zwischen den Einträgen in den beiden Tagebüchern auf und gibt Aufschluss über die Vor- und Nachteile des automatisch generierten Tagebuchs.
In dieser Diplomarbeit wird die Metapher eines Reisetagebuchs verwendet, um Daten über die Bewegungen eines mobilen Agenten im Raum zu untersuchen. Es werden Methoden angewandt, die aufeinander folgende Positionen einer Wegaufzeichnung hinsichtlich ihrer räumlichen und zeitlichen Werte klassifizieren, mit dem Ziel, die quantitativen Daten der Wegaufzeichnung in eine qualitative Abfolge von Tagebucheinträgen zusammenzufassen. Der Algorithmus von Hariharan and Toyama (2004) wird in der freien statistischen Software R implementiert. Zeitlich und räumlich begrenzte Aufenthalte des Agenten in der Wegaufzeichnung werden mit Hilfe des Algorithmus unter der Verwendung von hierarchisch agglomerativem Clustering erkannt. Die Testdaten sind die Wegaufzeichnungen einer Person, welche über einen Zeitraum von 10 Tagen mittels GPS gesammelt wurden. Über denselben Zeitraum hinweg wurde ein traditionelles Papier-Bleistift Reisetagebuch geführt. Die Inhalte der Einträge in diesem Papier-Bleistift Reisetagebuchs werden aus kognitiver Sicht analysiert und des weiteren für den Vergleich mit den automatisch erzeugten Einträgen verwendet. Dieser Vergleich zeigt Verknüpfungspunkte zwischen den Einträgen in den beiden Tagebüchern auf und gibt Aufschluss über die Vor- und Nachteile des automatisch generierten Tagebuchs.
Operative Auswertung kontinentaler und globaler GNSS Netze
Institut für Geodäsie und Geophysik, Technische Universität Wien, 2005
Begutachter und Betreuer: Ao.Prof. Dipl.Ing. Dr.techn. Robert Weber
Kurzfassung/Abstract
Die Messdaten einer stetig wachsenden Anzahl an GNSS – Permanentstationen erlaubt heute die Bestimmung einer Vielzahl von Parametern wie in erster Linie der Stationskoordinaten oder im Falle globaler Netzdaten auch der Polbewegung und Tageslänge mit bisher ungekannter Genauigkeit. Zudem können aus den Daten Informationen zur Beschreibung der neutralen Atmosphäre, der Ionosphäre und geodynamischer Prozesse abgeleitet werden. Die enormen Mengen an Beobachtungsdaten verlangen aber nach einer automatisierten Auswertung. Die Bernese GPS Software ist ein geeignetes Programmpaket, um die gesuchten Parameter automatisch zu berechnen. Die vorliegende Diplomarbeit befasste sich mit Auswertemöglichkeiten von GPS Messungen. In einem ersten Schritt wurde die Berechnung eines kontinentalen Netzes mithilfe der „Bernese Processing Engine“ automatisiert und die Auswirkungen unterschiedlicher Datumsfestlegungen geprüft. Die erhaltenen Ergebnisse wurden grafisch, in Form von Zeitreihen, dargestellt und mit den Lösungen von EUREF oder des „International GNSS Service“ (IGS) verglichen. Der zweite Schritt bestand darin, ein globales Netzwerk von Permanentstationen über einen Zeitraum von zwei Monaten automatisiert auszuwerten und zusätzliche Parameter abzuleiten. Es wurden die Korrekturen der troposphärischen Zenitverzögerung bestimmt, Koeffizienten für Ionosphärenmodelle und die Erdrotationsparameter berechnet. Die berechneten Zeitreihen decken sich im Rahmen von ±10mm mit den Lösungen des IGS in den Koordinaten. Der mittlere Fehler der Differenzen in der troposphärischen Laufzeitverzögerungen liegt bei ±3mm, in der Elektronendichte bei ±5 TECU. Die Abweichungen in der Polbewegung waren kleiner als 0.2mas und in der Variation der Erdrotation kleiner als 0.03msec/Tag. Die im Rahmen der Diplomarbeit erzielten Ergebnisse dienen als weiterer Schritt um mittelfristig am Institut f. Geodäsie und Geophysik der TU-Wien ein IGS-Analysezentrum einzurichten.
Die Messdaten einer stetig wachsenden Anzahl an GNSS – Permanentstationen erlaubt heute die Bestimmung einer Vielzahl von Parametern wie in erster Linie der Stationskoordinaten oder im Falle globaler Netzdaten auch der Polbewegung und Tageslänge mit bisher ungekannter Genauigkeit. Zudem können aus den Daten Informationen zur Beschreibung der neutralen Atmosphäre, der Ionosphäre und geodynamischer Prozesse abgeleitet werden. Die enormen Mengen an Beobachtungsdaten verlangen aber nach einer automatisierten Auswertung. Die Bernese GPS Software ist ein geeignetes Programmpaket, um die gesuchten Parameter automatisch zu berechnen. Die vorliegende Diplomarbeit befasste sich mit Auswertemöglichkeiten von GPS Messungen. In einem ersten Schritt wurde die Berechnung eines kontinentalen Netzes mithilfe der „Bernese Processing Engine“ automatisiert und die Auswirkungen unterschiedlicher Datumsfestlegungen geprüft. Die erhaltenen Ergebnisse wurden grafisch, in Form von Zeitreihen, dargestellt und mit den Lösungen von EUREF oder des „International GNSS Service“ (IGS) verglichen. Der zweite Schritt bestand darin, ein globales Netzwerk von Permanentstationen über einen Zeitraum von zwei Monaten automatisiert auszuwerten und zusätzliche Parameter abzuleiten. Es wurden die Korrekturen der troposphärischen Zenitverzögerung bestimmt, Koeffizienten für Ionosphärenmodelle und die Erdrotationsparameter berechnet. Die berechneten Zeitreihen decken sich im Rahmen von ±10mm mit den Lösungen des IGS in den Koordinaten. Der mittlere Fehler der Differenzen in der troposphärischen Laufzeitverzögerungen liegt bei ±3mm, in der Elektronendichte bei ±5 TECU. Die Abweichungen in der Polbewegung waren kleiner als 0.2mas und in der Variation der Erdrotation kleiner als 0.03msec/Tag. Die im Rahmen der Diplomarbeit erzielten Ergebnisse dienen als weiterer Schritt um mittelfristig am Institut f. Geodäsie und Geophysik der TU-Wien ein IGS-Analysezentrum einzurichten.
Geodätische Punktbestimmung auf Basis kombinierter GPS/GALILEO Beobachtungsdaten
Institut für Geodäsie und Geophysik, Technische Universität Wien, 2005
Begutachter: Ao.Prof. Dipl.-Ing. Dr.techn. Robert Weber
Betreuer: Ao.Prof. Dipl.-Ing. Dr.techn. Robert Weber, Dipl.-Ing. Veronika Bröderbauer
Kurzfassung/Abstract
Mit der Freigabe der Mittel für die Finanzierung der Entwicklung des Projekts „GALILEO“ leitete die europäische Union im März 2002 eine neue Epoche der Satellitennavigation und Satellitengeodäsie ein. GALILEO ist das zukünftige europäische Satellitennavigationssystem, das voraussichtlich ab 2009 in Betrieb gehen soll. Die zentrale Fragestellung der vorliegenden Diplomarbeit war, in welchem Ausmaß die geodätische Punktbestimmung von einer gemeinsamen Nutzung des neuen GALILEO-Systems und des bestehenden NAVSTAR-GPS profitieren wird. Die Untersuchungen stützten sich einerseits auf Simulationen der Bahndaten des GALILEO Raumsegments und andererseits auf Simulation von GALILEO L1+L5 Beobachtungsdaten. Die ermittelte Genauigkeitssteigerung resultiert einerseits aus der günstigeren Satellitengeometrie, andererseits aus der größeren Anzahl an Beobachtungen. Beide Faktoren wurden anhand nicht abgeschatteter und abgeschatteter Messszenarien betrachtet. Die Satellitengeometrie wurde mittels so genannter Dilution of Precision (DOP) Faktoren beurteilt, die Beobachtungsanzahl aus den simulierten Messdaten abgeleitet. Die resultierende Gesamtverbesserung ergibt sich für eine unabgeschattete Station (Durchschnitt über 24 h) zu rund 55% sowohl für die Lage- als auch Höhenkomponente. Im Fall eines abgeschatteten Szenarios kann die Verbesserung, je nach Position und Dimension des Sichthindernisses sogar mehr als 70% in Lage und Höhe betragen. Die Kombination von GPS und GALILEO bzw. in Zukunft auch GPS,GLONASS und GALILEO erweist sich jedenfalls als sehr gewinnbringend für die geodätische Punktbestimmung, da neben den untersuchten Effekten eine weitere deutliche Beschleunigung der Mehrdeutigkeitsfestlegung durch Nutzung von 3 Frequenzdaten (L1-L2-L5) zu erwarten ist.
Mit der Freigabe der Mittel für die Finanzierung der Entwicklung des Projekts „GALILEO“ leitete die europäische Union im März 2002 eine neue Epoche der Satellitennavigation und Satellitengeodäsie ein. GALILEO ist das zukünftige europäische Satellitennavigationssystem, das voraussichtlich ab 2009 in Betrieb gehen soll. Die zentrale Fragestellung der vorliegenden Diplomarbeit war, in welchem Ausmaß die geodätische Punktbestimmung von einer gemeinsamen Nutzung des neuen GALILEO-Systems und des bestehenden NAVSTAR-GPS profitieren wird. Die Untersuchungen stützten sich einerseits auf Simulationen der Bahndaten des GALILEO Raumsegments und andererseits auf Simulation von GALILEO L1+L5 Beobachtungsdaten. Die ermittelte Genauigkeitssteigerung resultiert einerseits aus der günstigeren Satellitengeometrie, andererseits aus der größeren Anzahl an Beobachtungen. Beide Faktoren wurden anhand nicht abgeschatteter und abgeschatteter Messszenarien betrachtet. Die Satellitengeometrie wurde mittels so genannter Dilution of Precision (DOP) Faktoren beurteilt, die Beobachtungsanzahl aus den simulierten Messdaten abgeleitet. Die resultierende Gesamtverbesserung ergibt sich für eine unabgeschattete Station (Durchschnitt über 24 h) zu rund 55% sowohl für die Lage- als auch Höhenkomponente. Im Fall eines abgeschatteten Szenarios kann die Verbesserung, je nach Position und Dimension des Sichthindernisses sogar mehr als 70% in Lage und Höhe betragen. Die Kombination von GPS und GALILEO bzw. in Zukunft auch GPS,GLONASS und GALILEO erweist sich jedenfalls als sehr gewinnbringend für die geodätische Punktbestimmung, da neben den untersuchten Effekten eine weitere deutliche Beschleunigung der Mehrdeutigkeitsfestlegung durch Nutzung von 3 Frequenzdaten (L1-L2-L5) zu erwarten ist.
Features to georeference terrestrial laser scan data of both indoor and outdoor scenes
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuer/Gutachter: Dipl.-Ing. Dr. Gerald Gruber (FH Technikum Kärnten), Dr. Derek Lichti (Curtin University of Technology, Australien)
Kurzfassung/Abstract
Terrestrische Laserscanner werden zur Aufnahme von dichten, dreidimensionalen Punktdatensätzen verwendet mit denen man einen breiten Bereich von Applikationen abdecken kann. Beispiele sind die Erfassung von Kulturerben, Formveränderungen von Objekten oder technische Vermessungen. Grundlegend bei diesen Datenerhebungen ist die anschließende Ermittlung der gemeinsamen Koordinatensysteme. Diese ergeben sich bei der Erhebung jedes einzelnen Datensatzes und müssen nach Erhebung in ein gemeinsames Koordinatensystem transferiert werden. Einige terrestrische Laserscanner können gleich wie ein Tachymeter direkt bedient und durch optische Zentrierung, Nivellierung und Visiereinrichtung georeferenziert werden. Andere sind kameraähnlich und müssen mit Hilfe von vermessenen, gekennzeichneten Punkten, sog. „targets“ , bearbeitet und somit im nachhinein bearbeitet werden. Bei beiden Methoden, besonders bei der letzterwähnten, kann die Georeferenzierung eine äußerst zeitintensive Prozedur sein, da diese Arbeit mit manueller Kleinarbeit verbunden ist. Zudem kann sich bei der target-Methode die Präzision der Aufnahme durch eine benutzerbezogene Adjustierung des Scanners vor der Aufnahme der Daten vermindern wenn die Auflösung des Scanners zum Zeitpunkt der Aufnahme zu gering gewählt ist. Geometrische Grundzüge wie virtuelle Punkte, Linien und Ebenen werden als Vorteil gegenüber der traditionellen punktbezogenen, dreidimensionalen Resektion betrachtet, vor allem in Bezug auf die Erstellung von Innenräumen und Stadtszenen wo unzählige geometrische Eigenschaften existieren. Virtuelle Punkte werden durch den Schnitt dreier Ebenen oder zweier oder dreier Linien bestimmt. Linien können durch den Schnitt zweier Ausgleichsebenen resultierend aus zwei nebeneinander liegenden Wänden berechnet werden. In Innenräumen und städtischen Szenen findet man sehr viele geometrische Grundzüge, welche durch eine Vielzahl von Scanpunkten definiert sind. Diese Scanpunktdatensätze bestehen aus einzelnen bis zu Millionen von Scanpunkten. Diese Scanpunkte bieten aufgrund ihrer Quantität aber auch Qualität hervorragende Vorraussetzungen im Zuge wissenschaftlicher Erhebungen wie in dieser Diplomareit erläutert. Drei berechnete, verschneidende Ebenen ergeben zum Beispiel einen äußerst präzisen Punkt. Terrestrisches Laserscanning ist eine junger wissenschaftlicher Bereich. Es wird jedoch mehr und mehr geläufig und vermehrt eingesetzt um Innenräume und Stadtszenen zu analysieren. Zum Zeitpunkt dieser Diplomarbeit gibt es Programme welche die Resektion von Punkten berechnen, hierfür müssen jedoch mehrere zeitintensive Vorarbeiten geleistet werden wie zum Beispiel die manuelle Extraktion von einzelnen Ebenen aus einem einzelnen Scanpunktdatensatz. Dieses Projekt beschäftigt sich mit der Erforschung von Ausgleichsgeraden und -flächen um die Resektion mittels errechneten Flächen von Objekten zu ermitteln. Der Autor beschäftigt sich hierfür nicht nur mit der Erstellung eines korrekten Algorithmus sondern auch mit der Zusammenfügung der bereits vorhandenen Programmcodes.
Terrestrische Laserscanner werden zur Aufnahme von dichten, dreidimensionalen Punktdatensätzen verwendet mit denen man einen breiten Bereich von Applikationen abdecken kann. Beispiele sind die Erfassung von Kulturerben, Formveränderungen von Objekten oder technische Vermessungen. Grundlegend bei diesen Datenerhebungen ist die anschließende Ermittlung der gemeinsamen Koordinatensysteme. Diese ergeben sich bei der Erhebung jedes einzelnen Datensatzes und müssen nach Erhebung in ein gemeinsames Koordinatensystem transferiert werden. Einige terrestrische Laserscanner können gleich wie ein Tachymeter direkt bedient und durch optische Zentrierung, Nivellierung und Visiereinrichtung georeferenziert werden. Andere sind kameraähnlich und müssen mit Hilfe von vermessenen, gekennzeichneten Punkten, sog. „targets“ , bearbeitet und somit im nachhinein bearbeitet werden. Bei beiden Methoden, besonders bei der letzterwähnten, kann die Georeferenzierung eine äußerst zeitintensive Prozedur sein, da diese Arbeit mit manueller Kleinarbeit verbunden ist. Zudem kann sich bei der target-Methode die Präzision der Aufnahme durch eine benutzerbezogene Adjustierung des Scanners vor der Aufnahme der Daten vermindern wenn die Auflösung des Scanners zum Zeitpunkt der Aufnahme zu gering gewählt ist. Geometrische Grundzüge wie virtuelle Punkte, Linien und Ebenen werden als Vorteil gegenüber der traditionellen punktbezogenen, dreidimensionalen Resektion betrachtet, vor allem in Bezug auf die Erstellung von Innenräumen und Stadtszenen wo unzählige geometrische Eigenschaften existieren. Virtuelle Punkte werden durch den Schnitt dreier Ebenen oder zweier oder dreier Linien bestimmt. Linien können durch den Schnitt zweier Ausgleichsebenen resultierend aus zwei nebeneinander liegenden Wänden berechnet werden. In Innenräumen und städtischen Szenen findet man sehr viele geometrische Grundzüge, welche durch eine Vielzahl von Scanpunkten definiert sind. Diese Scanpunktdatensätze bestehen aus einzelnen bis zu Millionen von Scanpunkten. Diese Scanpunkte bieten aufgrund ihrer Quantität aber auch Qualität hervorragende Vorraussetzungen im Zuge wissenschaftlicher Erhebungen wie in dieser Diplomareit erläutert. Drei berechnete, verschneidende Ebenen ergeben zum Beispiel einen äußerst präzisen Punkt. Terrestrisches Laserscanning ist eine junger wissenschaftlicher Bereich. Es wird jedoch mehr und mehr geläufig und vermehrt eingesetzt um Innenräume und Stadtszenen zu analysieren. Zum Zeitpunkt dieser Diplomarbeit gibt es Programme welche die Resektion von Punkten berechnen, hierfür müssen jedoch mehrere zeitintensive Vorarbeiten geleistet werden wie zum Beispiel die manuelle Extraktion von einzelnen Ebenen aus einem einzelnen Scanpunktdatensatz. Dieses Projekt beschäftigt sich mit der Erforschung von Ausgleichsgeraden und -flächen um die Resektion mittels errechneten Flächen von Objekten zu ermitteln. Der Autor beschäftigt sich hierfür nicht nur mit der Erstellung eines korrekten Algorithmus sondern auch mit der Zusammenfügung der bereits vorhandenen Programmcodes.
Evaluation of automatically generated vectors from SAR imagery for topographic mapping
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuer/Gutachter: Mag. Dr. Gernot Paulus, MSc, MAS (FH Technikum Kärnten), Dieter Lübeck (Fa. Orbisat, Brasilien)
Kurzfassung/Abstract
Die Verwendung von Radar mit synthetischer Apertur für die Produktion von topographischen Karten, wurde bereits 1986 von Zebker und Goldstein diskutiert. Die rasante Entwicklung auf dem Gebiet der Radar Technologien für den Fernerkundungsbereich resultiert in neuen Anwendungsmöglichkeiten der so erfassten Daten. Der Bedarf an topographischen Grundkartenwerken, wie zum Beispiel in Süd-amerikanischen Ländern, und die Aktualisierung von bereits bestehenden Kartenwerken gibt Anlass zu einer Evaluierung von automatisch erzeugten Vektoren zur Produktion von topographischen Karten aus SAR-Daten. Die Daten die dieser Diplomarbeit zu Grunde liegen, stammen von dem flugzeuggetragenem Radarsensor OrbiSAR-I, der x- und p-Band Daten simultan aufnehmen kann. Die ausgewählten Klassen, Wald und Wasser, werden mit einer objekt-orientierte Methode klassifiziert. Die aus der Klassifikation abgeleiteten Vektoren, können aufgrund ihres unruhigen Erscheinungsbildes jedoch nicht ohne eine Generalisierung in eine topographische Karte übernommen werden. Unter Verwendung des Douglas Peucker Algorithmus werden die Vektoren simplifiziert und anschließend mit einer Bézeir Spline Funktion geglättet. Dieser Vorgang erhöht die ästhetische Qualität der Ausgangsdaten und macht die Verwendung der automatisch erzeugten Vektoren in einer topographischen Karte möglich. Eine Bewertung der Klassifikationsergebnisse gibt Aufschluss über die Genauigkeit der extrahierten Vektoren. Nach dem Generalisierungs-Prozess erfolgt ein visueller und mathematischer Vergleich mit manuell erzeugten Referenzdaten um die Abweichung der automatisch erzeugten Vektoren abzuschätzen. Die Ergebnisse dieser Diplomarbeit zeigen, dass die generalisierten Daten aus klassifizierten x- und p-band Radar Bildern, einen geringen Unterschied zu den traditionell, manuell erzeugten Daten aufweisen und daher in topographischen Kartenwerken verwendet werden können.
Die Verwendung von Radar mit synthetischer Apertur für die Produktion von topographischen Karten, wurde bereits 1986 von Zebker und Goldstein diskutiert. Die rasante Entwicklung auf dem Gebiet der Radar Technologien für den Fernerkundungsbereich resultiert in neuen Anwendungsmöglichkeiten der so erfassten Daten. Der Bedarf an topographischen Grundkartenwerken, wie zum Beispiel in Süd-amerikanischen Ländern, und die Aktualisierung von bereits bestehenden Kartenwerken gibt Anlass zu einer Evaluierung von automatisch erzeugten Vektoren zur Produktion von topographischen Karten aus SAR-Daten. Die Daten die dieser Diplomarbeit zu Grunde liegen, stammen von dem flugzeuggetragenem Radarsensor OrbiSAR-I, der x- und p-Band Daten simultan aufnehmen kann. Die ausgewählten Klassen, Wald und Wasser, werden mit einer objekt-orientierte Methode klassifiziert. Die aus der Klassifikation abgeleiteten Vektoren, können aufgrund ihres unruhigen Erscheinungsbildes jedoch nicht ohne eine Generalisierung in eine topographische Karte übernommen werden. Unter Verwendung des Douglas Peucker Algorithmus werden die Vektoren simplifiziert und anschließend mit einer Bézeir Spline Funktion geglättet. Dieser Vorgang erhöht die ästhetische Qualität der Ausgangsdaten und macht die Verwendung der automatisch erzeugten Vektoren in einer topographischen Karte möglich. Eine Bewertung der Klassifikationsergebnisse gibt Aufschluss über die Genauigkeit der extrahierten Vektoren. Nach dem Generalisierungs-Prozess erfolgt ein visueller und mathematischer Vergleich mit manuell erzeugten Referenzdaten um die Abweichung der automatisch erzeugten Vektoren abzuschätzen. Die Ergebnisse dieser Diplomarbeit zeigen, dass die generalisierten Daten aus klassifizierten x- und p-band Radar Bildern, einen geringen Unterschied zu den traditionell, manuell erzeugten Daten aufweisen und daher in topographischen Kartenwerken verwendet werden können.
GIS-based Visualization of Urban Transportation Planning
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuer/Gutachter: Dipl.-Ing. Dr. Gerald Gruber (FH Technikum Kärnten), Dr. Luca Bertolini (University of Amsterdam, Department of Geography and Planning, NL)
Kurzfassung/Abstract
Diese Diplomarbeit beschäftigt sich mit GIS Applikationsentwicklung und GIS basierter Visualisierung für die Exploration und Kommunikation des Erreichbarkeitsprinzips für städtische Transportplanung. Obwohl der Einsatz von GIS unter Stadtplanern weit verbreitet ist, werden nicht alle von einem GIS zur Verfügung gestellten Methoden genützt. Andererseits können die Funktionen eines GIS nicht alle Bedürfnisse von Transportplanung abdecken, aber es bietet die Möglichkeiten den Bedürfnissen angepasst zu werden. Auch auf dem Feld der Visualisierung bietet GIS mehr als oft verwendete thematische Karten und Buffer. Deshalb steuert diese Diplomarbeit einen Beitrag zur Exploration und Kommunikation des ortsbasierten Erreichbarkeitsprinzips bei. Zuerst beschäftigen wir uns mit der Datenintegration und dem kürzesten Wegeproblem in Netzwerken, die als Grundlage für die folgenden Punkte genommen werden. Danach wird eine auf dieser Basis entwickelte Applikation vorgestellt, die die Benützer unterstützt das Grundkonzept der Erreichbarkeit, die dazugehörigen Faktoren und deren Zusammenspiel zu verstehen. Schlussendlich steuern alternative Visualisierungsmethoden einen Beitrag zur Kommunikation der aktuellen Transportsituation in Amsterdam bei.
Diese Diplomarbeit beschäftigt sich mit GIS Applikationsentwicklung und GIS basierter Visualisierung für die Exploration und Kommunikation des Erreichbarkeitsprinzips für städtische Transportplanung. Obwohl der Einsatz von GIS unter Stadtplanern weit verbreitet ist, werden nicht alle von einem GIS zur Verfügung gestellten Methoden genützt. Andererseits können die Funktionen eines GIS nicht alle Bedürfnisse von Transportplanung abdecken, aber es bietet die Möglichkeiten den Bedürfnissen angepasst zu werden. Auch auf dem Feld der Visualisierung bietet GIS mehr als oft verwendete thematische Karten und Buffer. Deshalb steuert diese Diplomarbeit einen Beitrag zur Exploration und Kommunikation des ortsbasierten Erreichbarkeitsprinzips bei. Zuerst beschäftigen wir uns mit der Datenintegration und dem kürzesten Wegeproblem in Netzwerken, die als Grundlage für die folgenden Punkte genommen werden. Danach wird eine auf dieser Basis entwickelte Applikation vorgestellt, die die Benützer unterstützt das Grundkonzept der Erreichbarkeit, die dazugehörigen Faktoren und deren Zusammenspiel zu verstehen. Schlussendlich steuern alternative Visualisierungsmethoden einen Beitrag zur Kommunikation der aktuellen Transportsituation in Amsterdam bei.
GIS-gestützte Marktsegmentierung für Agrar-GIS-Applikationen am Beispiel Bayern
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuerin/Gutachter: Dipl.-Ing. Dr. Adrijana Car (FH Technikum Kärnten), Dipl.-Ing. Walter Mayer (Fa. PROGIS, Villach)
Kurzfassung/Abstract
Diese Diplomarbeit befasst sich mit der GIS-gestützten Marktsegmentierung für Agrar-GIS-Applikationen am Beispiel Bayern. Mit 01.01.2005 ist unter anderem die EU-Verordnung Nr. 178/2002 zur Rückverfolgbarkeit der Nahrungsmittelkette in Kraft getreten. Aus diesem Grund werden Landwirte verstärkt Agrar-GIS-Applikationen zur Dokumentation und Planung ihrer Betriebsabläufe einsetzen. Daher ist es wiederum für Anbieter solcher Applikationen von Vorteil, wenn sie ihre Zielgruppen rasch und einfach bestimmen können. Dabei kann eine GIS-gestützte Marktsegmentierung helfen, potenzielle Kunden heraus zu filtern und gezielt zu bewerben. In Zusammenarbeit mit der PROGIS Software AG ist eine Methode zur GIS-gestützten Marktsegmentierung für Agrar-GIS-Applikationen entwickelt und für die Produktfamilie AGROffice am Beispiel Bayern getestet worden. Zur Durchführung sind in ArcGIS9 ArcInfo mehrere, nacheinander ablaufende Datenaufbereitungs- und Datenanalyse-Modelle zusammengestellt worden, mit deren Hilfe die Marktsegmentierung für eine bestimmte Applikation ausgeführt werden kann. Für jede zu analysierende Applikation wird vorab eine Zielgruppe ermittelt, die festgelegte Mindestprozentsätze für die Kriterien Bodennutzung, Betriebsgrößen und Haupt- bzw. Nebenerwerbsbetriebe erfüllt. Die Ergebnisse werden mit Hilfe von WinGIS 2003 geografisch dargestellt und repräsentieren die ermittelte Zielgruppe der jeweiligen Applikation auf Basis der bayerischen Gemeinden.
Diese Diplomarbeit befasst sich mit der GIS-gestützten Marktsegmentierung für Agrar-GIS-Applikationen am Beispiel Bayern. Mit 01.01.2005 ist unter anderem die EU-Verordnung Nr. 178/2002 zur Rückverfolgbarkeit der Nahrungsmittelkette in Kraft getreten. Aus diesem Grund werden Landwirte verstärkt Agrar-GIS-Applikationen zur Dokumentation und Planung ihrer Betriebsabläufe einsetzen. Daher ist es wiederum für Anbieter solcher Applikationen von Vorteil, wenn sie ihre Zielgruppen rasch und einfach bestimmen können. Dabei kann eine GIS-gestützte Marktsegmentierung helfen, potenzielle Kunden heraus zu filtern und gezielt zu bewerben. In Zusammenarbeit mit der PROGIS Software AG ist eine Methode zur GIS-gestützten Marktsegmentierung für Agrar-GIS-Applikationen entwickelt und für die Produktfamilie AGROffice am Beispiel Bayern getestet worden. Zur Durchführung sind in ArcGIS9 ArcInfo mehrere, nacheinander ablaufende Datenaufbereitungs- und Datenanalyse-Modelle zusammengestellt worden, mit deren Hilfe die Marktsegmentierung für eine bestimmte Applikation ausgeführt werden kann. Für jede zu analysierende Applikation wird vorab eine Zielgruppe ermittelt, die festgelegte Mindestprozentsätze für die Kriterien Bodennutzung, Betriebsgrößen und Haupt- bzw. Nebenerwerbsbetriebe erfüllt. Die Ergebnisse werden mit Hilfe von WinGIS 2003 geografisch dargestellt und repräsentieren die ermittelte Zielgruppe der jeweiligen Applikation auf Basis der bayerischen Gemeinden.
Räumliches Monitoring, Anwendungsmöglichkeiten und Perspektiven in der Regionalplanung
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuerin/Gutachter: Dipl.-Ing. Dr. Christian Menard (FH Technikum Kärnten), Dipl.-Ing. Manfred Schrenk (Fa. Multimediaplan.at, Wien)
Kurzfassung/Abstract
Die grenzüberschreitende Region „CENTROPE“ besteht aus Teilen Österreichs, Tschechiens, der Slowakei und Ungarns. Verschiedene Aktivitäten innerhalb dieses Untersuchungsgebietes werden von der Europäischen Union (EU) im Rahmen eines Interreg IIIA Projektes gefördert. „CENTROPE Map“ ist ein weiterführendes Projekt von „Basiskarte und Informationssystem CENTROPE“. Ziel der Projektreihe ist die Schaffung einer einheitlichen Geo- und Sachdatengrundlage. Diese dient als Basis, für die künftige Entwicklung der Kommunikationspolitik in der Region. Ein eigener Teil des Projektes „CENTROPE Map“ beschäftigt sich mit räumlichem Monitoring, welches auch das zentrale Thema dieser Diplomarbeit ist. Mit Hilfe von räumlichem Monitoring werden laufend erhobene Daten verwaltet und eine Analyse des Ist-Zustandes und der Entwicklung des Raumes in verschiedenen Bereichen durchgeführt. Räumliches Monitoring dient politischen Entscheidungsträgern und privaten Unternehmen in Fragen räumlicher Planung als entscheidungsunterstützendes Instrument. Die Umsetzung von räumlichem Monitoring für die Region „CENTROPE“ deckt vor allem jene Bereiche ab, die in der Regionalentwicklung von Bedeutung sind. Notwendige Vorarbeiten und Voraussetzungen, um räumliches Monitoring durchführen zu können, werden bestimmt. Ein besonderes Augenmerk wird auf die Klassifizierung und die Klassifizierungsmethoden der Daten gelegt, um aussagekräftige Information bereit zu stellen. Die verschiedenen Anwendungsmöglichkeiten und Einsatzbereiche werden ermittelt. Des Weiteren wird der Umgang mit der Datenmenge geklärt. Die erzielten Ergebnisse der Umsetzung reflektieren die große Bandbreite der Anwendungsbereiche von räumlichem Monitoring, wie zum Beispiel regionales Benchmarking. Die Besonderheiten und Probleme im Zusammengang mit dem Thema werden diskutiert. Die möglichen Perspektiven und die zukünftige Weiterentwicklung von räumlichem Monitoring für die Region „CENTROPE“ werden beleuchtet.
Die grenzüberschreitende Region „CENTROPE“ besteht aus Teilen Österreichs, Tschechiens, der Slowakei und Ungarns. Verschiedene Aktivitäten innerhalb dieses Untersuchungsgebietes werden von der Europäischen Union (EU) im Rahmen eines Interreg IIIA Projektes gefördert. „CENTROPE Map“ ist ein weiterführendes Projekt von „Basiskarte und Informationssystem CENTROPE“. Ziel der Projektreihe ist die Schaffung einer einheitlichen Geo- und Sachdatengrundlage. Diese dient als Basis, für die künftige Entwicklung der Kommunikationspolitik in der Region. Ein eigener Teil des Projektes „CENTROPE Map“ beschäftigt sich mit räumlichem Monitoring, welches auch das zentrale Thema dieser Diplomarbeit ist. Mit Hilfe von räumlichem Monitoring werden laufend erhobene Daten verwaltet und eine Analyse des Ist-Zustandes und der Entwicklung des Raumes in verschiedenen Bereichen durchgeführt. Räumliches Monitoring dient politischen Entscheidungsträgern und privaten Unternehmen in Fragen räumlicher Planung als entscheidungsunterstützendes Instrument. Die Umsetzung von räumlichem Monitoring für die Region „CENTROPE“ deckt vor allem jene Bereiche ab, die in der Regionalentwicklung von Bedeutung sind. Notwendige Vorarbeiten und Voraussetzungen, um räumliches Monitoring durchführen zu können, werden bestimmt. Ein besonderes Augenmerk wird auf die Klassifizierung und die Klassifizierungsmethoden der Daten gelegt, um aussagekräftige Information bereit zu stellen. Die verschiedenen Anwendungsmöglichkeiten und Einsatzbereiche werden ermittelt. Des Weiteren wird der Umgang mit der Datenmenge geklärt. Die erzielten Ergebnisse der Umsetzung reflektieren die große Bandbreite der Anwendungsbereiche von räumlichem Monitoring, wie zum Beispiel regionales Benchmarking. Die Besonderheiten und Probleme im Zusammengang mit dem Thema werden diskutiert. Die möglichen Perspektiven und die zukünftige Weiterentwicklung von räumlichem Monitoring für die Region „CENTROPE“ werden beleuchtet.
Spatial Modelling of Coral Bleaching in the Great Barrier Reef
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuerin/Gutachter: Dipl.-Ing. Dr. Christian Menard (FH Technikum Kärnten), Dr. Rob Brander (University of New South Wales, School of Biological, Earth and Environmental Sciences, Australien)
Kurzfassung/Abstract
Australia's Great Barrier Reef (GBR) is the world's largest and most complex reef system; it has thousands of individual coral reefs and hundreds of continental islands, reef islands, small bare sand, and permanent vegetated cays. Over the last decades, coral reefs have been under constant stress from various natural phenomena. The world wide observed change in the environment known as Global Warming has led to an event referred to as coral bleaching (Holden and LeDrew, 1998). Due to severe coral bleaching events that occurred in 1998 and 2002, the Great Barrier Reef Marine Park Authority (GBRMPA) decided to concentrate their efforts in the research around this field. As aerial photography and field surveying are both resource- and cost- intensive, remote sensing technology has emerged as a tool for performing large scale coral reef evaluation and monitoring (Mumby et al., 1998). This project deals with the feasibility of using hyperspectral data for coral bleaching and rehabilitation assessment on hyperspectral satellite imagery of Heron and Wistari reef in the southern section of the Great Barrier Reef in the periods of March and June 2004. A high-resolution IKONOS image served for geomorphologic determination of main coral benthic habitat. The hyperspectral datasets served for the assessment of the bleaching and rehabilitation status of the study area, which were based on the geomorphologic areas retrieved from the results of the IKONOS classification. The hyperspectral datasets were pre-processed using Minimum Noise Fracture (MNF) Transformation and Purity Pixel Index (PPI) and classified using the Mixture Tuned Matched Filtering (MTMF) and the Spectral Angle Mapper (SAM) classification method. Endmembers were retrieved from the hyperspectral data set on a purely spectral basis applying the n-D Visualizer method on the PPI results. The retrieved classes from the n-D Visualizer were categorized according to a methodology suggested by Clark et al. into healthy, transitional, and bleached coral communities (2000). These three classes are sufficient to show rehabilitation and changes in the status of coral communities after the coral bleaching event in March. The results of the project in general showed that the assessment of coral health via hyperspectral remote sensing is still at an early stage. Although the final classification suggests wide areas of rehabilitation we have to acknowledge that this process is purely based on their spectral patterns rather than in situ observation or sample dataset of coral reflectance as spectral libraries. The general classification compared to the classification of the coral area returned far better results; this was due to the lack of influencing spectra from other geomorphologic features. Generally the results in means of coral health assessment suggest that rehabilitation takes place not rather in dense zones than in single scattered patches. This assumption could be confirmed by applying a majority filter on the classification results. By analyzing the rehabilitation process on the July dataset it is obvious that healthy coral communities only emerged out of transitional communities and transitional communities emerged from assumed bleached coral. It seems that transitional communities seem situated like a buffer zone around healthy communities.
Australia's Great Barrier Reef (GBR) is the world's largest and most complex reef system; it has thousands of individual coral reefs and hundreds of continental islands, reef islands, small bare sand, and permanent vegetated cays. Over the last decades, coral reefs have been under constant stress from various natural phenomena. The world wide observed change in the environment known as Global Warming has led to an event referred to as coral bleaching (Holden and LeDrew, 1998). Due to severe coral bleaching events that occurred in 1998 and 2002, the Great Barrier Reef Marine Park Authority (GBRMPA) decided to concentrate their efforts in the research around this field. As aerial photography and field surveying are both resource- and cost- intensive, remote sensing technology has emerged as a tool for performing large scale coral reef evaluation and monitoring (Mumby et al., 1998). This project deals with the feasibility of using hyperspectral data for coral bleaching and rehabilitation assessment on hyperspectral satellite imagery of Heron and Wistari reef in the southern section of the Great Barrier Reef in the periods of March and June 2004. A high-resolution IKONOS image served for geomorphologic determination of main coral benthic habitat. The hyperspectral datasets served for the assessment of the bleaching and rehabilitation status of the study area, which were based on the geomorphologic areas retrieved from the results of the IKONOS classification. The hyperspectral datasets were pre-processed using Minimum Noise Fracture (MNF) Transformation and Purity Pixel Index (PPI) and classified using the Mixture Tuned Matched Filtering (MTMF) and the Spectral Angle Mapper (SAM) classification method. Endmembers were retrieved from the hyperspectral data set on a purely spectral basis applying the n-D Visualizer method on the PPI results. The retrieved classes from the n-D Visualizer were categorized according to a methodology suggested by Clark et al. into healthy, transitional, and bleached coral communities (2000). These three classes are sufficient to show rehabilitation and changes in the status of coral communities after the coral bleaching event in March. The results of the project in general showed that the assessment of coral health via hyperspectral remote sensing is still at an early stage. Although the final classification suggests wide areas of rehabilitation we have to acknowledge that this process is purely based on their spectral patterns rather than in situ observation or sample dataset of coral reflectance as spectral libraries. The general classification compared to the classification of the coral area returned far better results; this was due to the lack of influencing spectra from other geomorphologic features. Generally the results in means of coral health assessment suggest that rehabilitation takes place not rather in dense zones than in single scattered patches. This assumption could be confirmed by applying a majority filter on the classification results. By analyzing the rehabilitation process on the July dataset it is obvious that healthy coral communities only emerged out of transitional communities and transitional communities emerged from assumed bleached coral. It seems that transitional communities seem situated like a buffer zone around healthy communities.
GIS - gestütze Analyse zur Berechnung potenzieller Lawinenabbruchgebiete
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuer/Gutachter: Mag. Dr. Gernot Paulus, MSc, MAS (FH Technikum Kärnten), Dipl.-Ing. Christoph Seymann (Forststechnischer Dienst d. Wildbach- u. Lawinenverbauung, Sektion Kärnten, Villach)
Kurzfassung/Abstract
Ziel dieser Diplomarbeit ist die Entwicklung und Evaluierung von GIS – gestützten Methoden zur Berechnung von potenziellen Lawinenabbruchgebieten. Lawineneinzugsgebiete sind in Kärnten in der Lawineneinzugsgebietsverordnung dokumentiert. Diese besteht aus einem analogen tabellarischen Verzeichnis und der Darstellung der Sturzbahnen der Lawinen als symbolhafte Pfeile auf Tuscholeaten. Über Lawinenabbruchgebiete gibt es nur textliche Beschreibungen in den Lawinenaufnahmeblättern, deshalb besteht der Wunsch, diese als flächenhafte Objekte zu berechnen und in einem GIS System darzustellen. Im Zuge der Diplomarbeit wird die analoge Lawineneinzugsgebietsverordnung in eine digitale Darstellungsform überführt. Das digitale Vorhandensein der Lawineneinzugsgebietsverordnung erlaubt erstmals die Integration dieses Datensatzes mit anderen Naturgefahren-relevanten Geodatensätzen. Für die Berechnung potenzieller Lawinenabbruchgebiete werden zwei unterschiedliche semiautomatische, rasteranalytische Methoden diskutiert. Erstens werden die potenziellen Lawinenabbruchgebiete auf Basis der morphologischen Kriterien eines Digitale Geländemodells berechnet. Dazu erfolgt eine Klassifizierung des Geländes nach der Hangneigung und der Geländeform (Curvature) sowie die Berechnung von Grat, Rinne und Ebene mit dem LANDFORM Tool (Klingseisen 2004). Die zweite Methode basiert auf dem Konzept einer hydrologischen Modellierung. Dabei dienen die digitale Lawineneinzugsgebietsverordnung und die Lawinengefahrenzonen als Ausgangsobjekte zur Berechnung von hydrologischen Einzugsgebieten. Die Klassifizierung der hydrologischen Einzugsgebiete nach der Hangneigung führt dann zu den potenziellen Lawinenabbruchgebieten. Die berechneten Lawineneinzugsgebiete beider Methoden werden danach durch die Kriterien Wald und maximale 3-Tagesneuschneemenge räumlich eingeschränkt. Diese Ergebnisse werden mit Expertenklassifizierungen validiert, um Aufschluss über ihre Anwendbarkeit in der Praxis zu erhalten.
Ziel dieser Diplomarbeit ist die Entwicklung und Evaluierung von GIS – gestützten Methoden zur Berechnung von potenziellen Lawinenabbruchgebieten. Lawineneinzugsgebiete sind in Kärnten in der Lawineneinzugsgebietsverordnung dokumentiert. Diese besteht aus einem analogen tabellarischen Verzeichnis und der Darstellung der Sturzbahnen der Lawinen als symbolhafte Pfeile auf Tuscholeaten. Über Lawinenabbruchgebiete gibt es nur textliche Beschreibungen in den Lawinenaufnahmeblättern, deshalb besteht der Wunsch, diese als flächenhafte Objekte zu berechnen und in einem GIS System darzustellen. Im Zuge der Diplomarbeit wird die analoge Lawineneinzugsgebietsverordnung in eine digitale Darstellungsform überführt. Das digitale Vorhandensein der Lawineneinzugsgebietsverordnung erlaubt erstmals die Integration dieses Datensatzes mit anderen Naturgefahren-relevanten Geodatensätzen. Für die Berechnung potenzieller Lawinenabbruchgebiete werden zwei unterschiedliche semiautomatische, rasteranalytische Methoden diskutiert. Erstens werden die potenziellen Lawinenabbruchgebiete auf Basis der morphologischen Kriterien eines Digitale Geländemodells berechnet. Dazu erfolgt eine Klassifizierung des Geländes nach der Hangneigung und der Geländeform (Curvature) sowie die Berechnung von Grat, Rinne und Ebene mit dem LANDFORM Tool (Klingseisen 2004). Die zweite Methode basiert auf dem Konzept einer hydrologischen Modellierung. Dabei dienen die digitale Lawineneinzugsgebietsverordnung und die Lawinengefahrenzonen als Ausgangsobjekte zur Berechnung von hydrologischen Einzugsgebieten. Die Klassifizierung der hydrologischen Einzugsgebiete nach der Hangneigung führt dann zu den potenziellen Lawinenabbruchgebieten. Die berechneten Lawineneinzugsgebiete beider Methoden werden danach durch die Kriterien Wald und maximale 3-Tagesneuschneemenge räumlich eingeschränkt. Diese Ergebnisse werden mit Expertenklassifizierungen validiert, um Aufschluss über ihre Anwendbarkeit in der Praxis zu erhalten.
Einsatz von Photogrammetrie und Laserscanning zur Dokumentation von Bauwerken
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2005
Begutachter: o.Univ.Prof. Dr.-Ing. Karl Kraus
Betreuer: Dipl.-Ing. Dr.techn. Camillo Ressl
Kurzfassung/Abstract
Terrestrisches Laserscanning und die Nahbereichsphotogrammetrie stellen zwei unterschiedliche Technologien zur Objektaufnahme dar. Beide besitzen unterschiedliche Stärken und Schwächen. Werden diese Technologien zu einem System zusammengefasst, entsteht ein sehr effizientes Vermessungssystem, das sämtliche Vorteile vereint. Im Rahmen dieser Diplomarbeit wurde ein derartiges hybrides System der Firma Riegl (LMS-Z420i + Digitalkamera Canon Eos 1Ds) zur Aufnahme von zwei Bauwerken verwendet. Bei dem ersten aufgenommen Gebäude handelt es sich um das Hauptgebäude der Technischen Universität Wien. Der Laserscanner hat das Gebäude von verschiedenen Standpunkten aus rasterförmig abgetastet und zeitgleich wurden digitale Photos aufgenommen. Dadurch entstehen diskrete Darstellungen in Form von 3D-Punktwolken, die in ein einheitliches Koordinatensystem zu transformieren sind. Letztendlich entsteht eine einzige Punktwolke. Mit Hilfe der Photos kann nun die Punktwolke eingefärbt werden. Es besteht allerdings auch die Möglichkeit, Orthophotos (kontinuierliche 2D-Darstellungen) zu berechnen. Um das Gebäude 3D-kontinuierlich anschaulich repräsentieren zu können, wurde ein texturiertes Modell der TU erstellt. Da die Dachlandschaft (vor allem die Textur) vom Boden aus nicht erfassbar ist, stammt diese aus einer Luftbildauswertung. Dieses Modell liegt als VRML-Datei vor und kann unter der Internetadresse www.ipf.tuwien.ac.at/teaching/vrml/TU/TU.wrl abgerufen werden. Als zweites Gebäude wurde ein ehemaliger römischer Tempeleingang (Propyläum) in Palestrina in der Nähe von Rom aufgenommen. Dabei wurde dieselbe Systemkonfiguration wie bei dem TU-Projekt verwendet. Allerdings handelt es sich bei dieser Ruine um ein sehr komplex strukturiertes Bauwerk, weswegen der Zeitaufwand für die Aufnahme erheblich größer war. Auch bei diesem Projekt waren Punktwolken und Orthophotos das Ergebnis. In dieser Arbeit werden die einzelnen Arbeitsschritte, die für die Durchführung der beiden Messkampagnen nötig waren, detailliert dargestellt und verglichen. Die für die Auswertung verwendeten Programme RiScanPro der Firma Riegl, CityGrid Ortho und CityGrid Modeler der Firma Geodata IT, sowie ORIENT / ORPHEUS des I.P.F. der TU Wien werden vorgestellt. Den Abschluss der Arbeit bildet eine Zusammenfassung der gewonnenen Erkenntnisse, um in Zukunft Projekte effizient planen und durchführen zu können.
Terrestrisches Laserscanning und die Nahbereichsphotogrammetrie stellen zwei unterschiedliche Technologien zur Objektaufnahme dar. Beide besitzen unterschiedliche Stärken und Schwächen. Werden diese Technologien zu einem System zusammengefasst, entsteht ein sehr effizientes Vermessungssystem, das sämtliche Vorteile vereint. Im Rahmen dieser Diplomarbeit wurde ein derartiges hybrides System der Firma Riegl (LMS-Z420i + Digitalkamera Canon Eos 1Ds) zur Aufnahme von zwei Bauwerken verwendet. Bei dem ersten aufgenommen Gebäude handelt es sich um das Hauptgebäude der Technischen Universität Wien. Der Laserscanner hat das Gebäude von verschiedenen Standpunkten aus rasterförmig abgetastet und zeitgleich wurden digitale Photos aufgenommen. Dadurch entstehen diskrete Darstellungen in Form von 3D-Punktwolken, die in ein einheitliches Koordinatensystem zu transformieren sind. Letztendlich entsteht eine einzige Punktwolke. Mit Hilfe der Photos kann nun die Punktwolke eingefärbt werden. Es besteht allerdings auch die Möglichkeit, Orthophotos (kontinuierliche 2D-Darstellungen) zu berechnen. Um das Gebäude 3D-kontinuierlich anschaulich repräsentieren zu können, wurde ein texturiertes Modell der TU erstellt. Da die Dachlandschaft (vor allem die Textur) vom Boden aus nicht erfassbar ist, stammt diese aus einer Luftbildauswertung. Dieses Modell liegt als VRML-Datei vor und kann unter der Internetadresse www.ipf.tuwien.ac.at/teaching/vrml/TU/TU.wrl abgerufen werden. Als zweites Gebäude wurde ein ehemaliger römischer Tempeleingang (Propyläum) in Palestrina in der Nähe von Rom aufgenommen. Dabei wurde dieselbe Systemkonfiguration wie bei dem TU-Projekt verwendet. Allerdings handelt es sich bei dieser Ruine um ein sehr komplex strukturiertes Bauwerk, weswegen der Zeitaufwand für die Aufnahme erheblich größer war. Auch bei diesem Projekt waren Punktwolken und Orthophotos das Ergebnis. In dieser Arbeit werden die einzelnen Arbeitsschritte, die für die Durchführung der beiden Messkampagnen nötig waren, detailliert dargestellt und verglichen. Die für die Auswertung verwendeten Programme RiScanPro der Firma Riegl, CityGrid Ortho und CityGrid Modeler der Firma Geodata IT, sowie ORIENT / ORPHEUS des I.P.F. der TU Wien werden vorgestellt. Den Abschluss der Arbeit bildet eine Zusammenfassung der gewonnenen Erkenntnisse, um in Zukunft Projekte effizient planen und durchführen zu können.
Development of a transnational Spatial Data Infrastructure in the Alpine Adriatic region
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuer/Gutachter: Mag. Dr. Gernot Paulus, MSc, MAS (FH Technikum Kärnten), Dipl.-Ing. Thomas Piechl (Amt der Kärntner Landesregierung, Abt. 18, Wasserbau, Klagenfurt)
Kurzfassung/Abstract
Diese Diplomarbeit beschäftigt sich mit dem Aufbau einer transnationalen Geodateninfrastrukur (GDI) im Alpen Adria Raum am Beispiel des INTERREG III B Projektes ISA-Map. Das Untersuchungsgebiet dieses EU-Projektes umfasst folgende Regionen der Länder Italien, Slowenien und Österreich: Friaul-Julisch Venetien, Slowenien und Kärnten. Durch diese Initiative der Europäischen Gemeinschaft soll der wirtschaftliche, soziale und territoriale Zusammenhalt zwischen den benachbarten Mitgliedsstaaten auf Basis des Europäischen Raumentwicklungskonzeptes gestärkt werden. Die vollendete Geodateninfrastruktur soll die Beantwortung von grenzübergreifenden und raumplanerisch relevanten Fragestellungen der teilnehmenden Länder ermöglichen. Basierend auf bereits existierenden Standards werden in dieser Diplomarbeit Vorschläge von Kriterien zur Datenharmonisierung, die Entwicklung eines ISO 19115 homogenen Metadatenkatalog, sowie den Aufbau von OGC konformen Web Map Services gegeben. Neben einer Übersicht von Standards und Richtlinien für den Aufbau einer Geodateninfrastruktur, werden bereits existierende GDIs auf verschiedenen administrativen Ebenen in den Blickpunkt genommen. Außerdem gibt diese Arbeit eine Übersicht über die bestehenden Raumplanungssysteme in der Projektregion von ISA-Map. Einen weiteren wesentlichen Teil stellt die Beschreibung von geodätischen Grundlagen, wie z.B. die in der Projektregion verwendeten Projektionen, dar. Generell entsteht bei der Erstellung einer Karte aus digitalen Daten, welche von unterschiedlichen Quellen mit verschiedenen Referenzsystemen kommen, eine so genannte Transformationsproblematik. Neben der Behandlung von diesem Problem werden abschließend noch Empfehlungen für den Aufbau einer transnationalen Geodateninfrastruktur diskutiert. Diese Diplomarbeit enthält: - ausgewählte Normen für die Harmonisierung von Geodaten, - einen ISO 19115 konformen Metadatenkatalog, - einen Lösungsvorschlag für das Transformationsproblem, - einen Überblick über für den Aufbau einer GDI relevanter Standards und Richtlinien, - Kriterien für den Aufbau einer transnationale GDI, - die Beschreibung dreier OGC konformer Web Map Services. Der Metadatenkatalog, die Web Map Services, sowie die leicht harmonisierten Geodaten, welche in den vorhin genannten Applikationen enthalten sind, stellen ein wichtiges Werkzeug im Bereich der Raumplanung in der Projektregion von ISA-Map dar. Mithilfe der Darstellung von solchen grenzübergreifenden Geodaten sind Raumplaner, Politiker, sowie andere interessierte Experten und die Öffentlichkeit in der Lage grobe raumplanerische Fragestellungen der Projektregion zu beantworten.
Diese Diplomarbeit beschäftigt sich mit dem Aufbau einer transnationalen Geodateninfrastrukur (GDI) im Alpen Adria Raum am Beispiel des INTERREG III B Projektes ISA-Map. Das Untersuchungsgebiet dieses EU-Projektes umfasst folgende Regionen der Länder Italien, Slowenien und Österreich: Friaul-Julisch Venetien, Slowenien und Kärnten. Durch diese Initiative der Europäischen Gemeinschaft soll der wirtschaftliche, soziale und territoriale Zusammenhalt zwischen den benachbarten Mitgliedsstaaten auf Basis des Europäischen Raumentwicklungskonzeptes gestärkt werden. Die vollendete Geodateninfrastruktur soll die Beantwortung von grenzübergreifenden und raumplanerisch relevanten Fragestellungen der teilnehmenden Länder ermöglichen. Basierend auf bereits existierenden Standards werden in dieser Diplomarbeit Vorschläge von Kriterien zur Datenharmonisierung, die Entwicklung eines ISO 19115 homogenen Metadatenkatalog, sowie den Aufbau von OGC konformen Web Map Services gegeben. Neben einer Übersicht von Standards und Richtlinien für den Aufbau einer Geodateninfrastruktur, werden bereits existierende GDIs auf verschiedenen administrativen Ebenen in den Blickpunkt genommen. Außerdem gibt diese Arbeit eine Übersicht über die bestehenden Raumplanungssysteme in der Projektregion von ISA-Map. Einen weiteren wesentlichen Teil stellt die Beschreibung von geodätischen Grundlagen, wie z.B. die in der Projektregion verwendeten Projektionen, dar. Generell entsteht bei der Erstellung einer Karte aus digitalen Daten, welche von unterschiedlichen Quellen mit verschiedenen Referenzsystemen kommen, eine so genannte Transformationsproblematik. Neben der Behandlung von diesem Problem werden abschließend noch Empfehlungen für den Aufbau einer transnationalen Geodateninfrastruktur diskutiert. Diese Diplomarbeit enthält: - ausgewählte Normen für die Harmonisierung von Geodaten, - einen ISO 19115 konformen Metadatenkatalog, - einen Lösungsvorschlag für das Transformationsproblem, - einen Überblick über für den Aufbau einer GDI relevanter Standards und Richtlinien, - Kriterien für den Aufbau einer transnationale GDI, - die Beschreibung dreier OGC konformer Web Map Services. Der Metadatenkatalog, die Web Map Services, sowie die leicht harmonisierten Geodaten, welche in den vorhin genannten Applikationen enthalten sind, stellen ein wichtiges Werkzeug im Bereich der Raumplanung in der Projektregion von ISA-Map dar. Mithilfe der Darstellung von solchen grenzübergreifenden Geodaten sind Raumplaner, Politiker, sowie andere interessierte Experten und die Öffentlichkeit in der Lage grobe raumplanerische Fragestellungen der Projektregion zu beantworten.
A Spatial and Temporal Comparison of House Price Determinants in England using Geographically Weighted Regression
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuer/Gutachter: Prof. Dr. Stewart A. Fotheringham (University of Maynooth, National Center for Geocomputation, Irland), Dipl.-Ing. Dr. Adrijana Car (FH Technikum Kärnten)
Kurzfassung/Abstract
Hauspreise in England sind in den letzten 10 Jahren stark angestiegen. Gründe dafür sind die zu wenig neu gebaute Gebäude sowie auch Änderungen in der Familienstruktur mit Anstieg an Einzelhaushalten. Diese Diplomarbeit analysiert einige Hauspreisdeterminanten mit der Hilfe von Geographically Weighted Regression (GWR) in England von den Jahren 1990 und 2000. GWR ist eine lokale Regressionsmethode um räumliche Daten zu analysieren. Ein Vergleich der Datensätze von 1990 und 2000 wird durchgeführt um den Anstieg der Hauspreise in verschiedenen Orten von England zu untersuchen. Weiters wird ein Vergleich zwischen globaler und lokaler Analyse gemacht um zu zeigen, dass die Anwendung von GWR in unserem Fall die bessere Methode ist. Das GWR Model besteht hauptsächlich aus strukturellen Variablen wie z.B. die Größe des Gebäudes, die Anzahl der Bäder, der Type des Hauses, usw. weil diese den größten Einfluss auf den Hauspreis haben. Zusätzlich werden auch Variablen der Umgebung wie z.B. Arbeitslosenrate zum Model hinzugefügt da die Umgebung, in der das Haus steht, den Hauspreis beeinflusst. Mit diesem Model wird die Beziehung zwischen Hauspreis und den verschiedenen Variablen gezeigt. Die Resultate werden in Karten dargestellt um die Interpretation und Visualisierung zu erleichtern. Es kann gesagt werden, dass signifikante räumliche Abweichungen in den Beziehungen innerhalb des Models existieren. Die Resultate zeigen den ersten Vergleich der Nationwide Daten von 1990 und 2000. Bemerkenswerte Preisunterschiede in England wurden analysiert welche zeigen sollen, dass der Zutritt zum Hausmarkt, vor allem für Erstkäufer, erleichtert werden soll.
Hauspreise in England sind in den letzten 10 Jahren stark angestiegen. Gründe dafür sind die zu wenig neu gebaute Gebäude sowie auch Änderungen in der Familienstruktur mit Anstieg an Einzelhaushalten. Diese Diplomarbeit analysiert einige Hauspreisdeterminanten mit der Hilfe von Geographically Weighted Regression (GWR) in England von den Jahren 1990 und 2000. GWR ist eine lokale Regressionsmethode um räumliche Daten zu analysieren. Ein Vergleich der Datensätze von 1990 und 2000 wird durchgeführt um den Anstieg der Hauspreise in verschiedenen Orten von England zu untersuchen. Weiters wird ein Vergleich zwischen globaler und lokaler Analyse gemacht um zu zeigen, dass die Anwendung von GWR in unserem Fall die bessere Methode ist. Das GWR Model besteht hauptsächlich aus strukturellen Variablen wie z.B. die Größe des Gebäudes, die Anzahl der Bäder, der Type des Hauses, usw. weil diese den größten Einfluss auf den Hauspreis haben. Zusätzlich werden auch Variablen der Umgebung wie z.B. Arbeitslosenrate zum Model hinzugefügt da die Umgebung, in der das Haus steht, den Hauspreis beeinflusst. Mit diesem Model wird die Beziehung zwischen Hauspreis und den verschiedenen Variablen gezeigt. Die Resultate werden in Karten dargestellt um die Interpretation und Visualisierung zu erleichtern. Es kann gesagt werden, dass signifikante räumliche Abweichungen in den Beziehungen innerhalb des Models existieren. Die Resultate zeigen den ersten Vergleich der Nationwide Daten von 1990 und 2000. Bemerkenswerte Preisunterschiede in England wurden analysiert welche zeigen sollen, dass der Zutritt zum Hausmarkt, vor allem für Erstkäufer, erleichtert werden soll.
Generalisierung von Mehrzweckkarte und 3d Modell der Stadt Wien
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2005
Betreuer/Gutachter: Dipl.-Ing. Dr. Gerald Gruber (FH Technikum Kärnten), Dipl.-Ing. Dr. Lionel Dorffner (Magistrat der Stadt Wien, Abt. Stadtvermessung)
Kurzfassung/Abstract
Die Mehrzweckkarte (MZK) – die digitale Stadtkarte von Wien – bietet eine Fülle an Informationen und ist entsprechend komplex strukturiert. Sie ist die Basis für eine Vielzahl von Anwendungen speziell in großen Maßstäben. Die Flächenmehrzweckkarte (FMZK) ist ein topologisch korrekter Flächenbestand, der durch teilautomatisierte Flächenbildung der Geometrien der MZK entstanden ist. Für viele Aufgaben und Fragestellungen ist dieser Detailreichtum für den Benutzer jedoch ein Zuviel an Information. Bei Planungen in Maßstäben ab 1:2000 wird dem Bearbeiter der Informationsgewinn aus den Daten durch die Dichte der Information erschwert. Um daher die Kunden mit einem, für sie, optimalen Produkt versorgen zu können, ist ein schlanker, ausgedünnter Datenbestand notwendig. Derzeit gibt es keinen Datenbestand, der diese Anforderung erfüllt. Es gibt auch keine Anwendung, welche bestehende Daten, beispielsweise die MZK, so bearbeiten kann, dass sie diese Anforderungen erfüllt. Da die MZK für diese konkreten Einsatzgebiete nur bedingt nutzbar ist, gibt es einen Bedarf nach einer solchen Anwendung, welche die MZK unter Berücksichtigung ihrer speziellen Eigenheiten generalisiert. Standard-Generalisierungsalgorithmen erzielen eine Vereinfachung der Geometrien durch Berechnungen mit den Koordinaten ohne dabei die Topologie zu berücksichtigen. Deshalb sind diese Algorithmen nicht geeignet, die MZK, beziehungsweise die FMZK, zu generalisieren. Um die Konsistenz der Datenbestände für MZK und FMZK zu gewährleisten, ist es erforderlich MZK und FMZK parallel zu bearbeiten. Ein derart veränderter Datensatz verbraucht zudem weniger Speicher und ist somit auch schneller zu handhaben. Sind diese Daten in die Evidenthaltung eingebunden, können auch zukünftige Applikationen, speziell Web-Applikationen, von den vereinfachten Daten profitieren.
Die Mehrzweckkarte (MZK) – die digitale Stadtkarte von Wien – bietet eine Fülle an Informationen und ist entsprechend komplex strukturiert. Sie ist die Basis für eine Vielzahl von Anwendungen speziell in großen Maßstäben. Die Flächenmehrzweckkarte (FMZK) ist ein topologisch korrekter Flächenbestand, der durch teilautomatisierte Flächenbildung der Geometrien der MZK entstanden ist. Für viele Aufgaben und Fragestellungen ist dieser Detailreichtum für den Benutzer jedoch ein Zuviel an Information. Bei Planungen in Maßstäben ab 1:2000 wird dem Bearbeiter der Informationsgewinn aus den Daten durch die Dichte der Information erschwert. Um daher die Kunden mit einem, für sie, optimalen Produkt versorgen zu können, ist ein schlanker, ausgedünnter Datenbestand notwendig. Derzeit gibt es keinen Datenbestand, der diese Anforderung erfüllt. Es gibt auch keine Anwendung, welche bestehende Daten, beispielsweise die MZK, so bearbeiten kann, dass sie diese Anforderungen erfüllt. Da die MZK für diese konkreten Einsatzgebiete nur bedingt nutzbar ist, gibt es einen Bedarf nach einer solchen Anwendung, welche die MZK unter Berücksichtigung ihrer speziellen Eigenheiten generalisiert. Standard-Generalisierungsalgorithmen erzielen eine Vereinfachung der Geometrien durch Berechnungen mit den Koordinaten ohne dabei die Topologie zu berücksichtigen. Deshalb sind diese Algorithmen nicht geeignet, die MZK, beziehungsweise die FMZK, zu generalisieren. Um die Konsistenz der Datenbestände für MZK und FMZK zu gewährleisten, ist es erforderlich MZK und FMZK parallel zu bearbeiten. Ein derart veränderter Datensatz verbraucht zudem weniger Speicher und ist somit auch schneller zu handhaben. Sind diese Daten in die Evidenthaltung eingebunden, können auch zukünftige Applikationen, speziell Web-Applikationen, von den vereinfachten Daten profitieren.