- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2008
Abschlussarbeiten 2008
Ein semiotisches Modell für die kartografische Kommunikation mit 3D
Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, Technische Universität Wien, 2008
1. Begutachter: Univ. Prof. Mag. Dr. Georg Gartner, Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, TU Wien.
2. Begutachter: Prof. Eur.-Ing. Dipl-Geol. Dr. phil. habil. Manfred Buchroithner, Institut für Kartographie, TU Dresden.
1. Begutachter: Univ. Prof. Mag. Dr. Georg Gartner, Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, TU Wien.
2. Begutachter: Prof. Eur.-Ing. Dipl-Geol. Dr. phil. habil. Manfred Buchroithner, Institut für Kartographie, TU Dresden.
Kurzfassung/Abstract
Die fortschreitende Digitalisierung und Paradigmenänderung der modernen Kartografie eröffnet neue Forschungsbereiche der GIScience, die einerseits von intensiveren Vermittlungsmethoden bei raumbasierten Informationen und andererseits vom vielfach öffentlichen Zugang zu allgemeiner Partizipation bei der Geoinformation geprägt sind. Die allgemeine Partizipation bei der Geoinformation wird mit verfügbaren Messgeräten zur Datenaufnahme (GPS Empfänger) und geeigneten globalen Plattformen des Internet für den Datenaustausch vorangetrieben. Aus dieser massiven Geodatenverfügbarkeit entstehen mit leistungsfähigen Verarbeitungsgeräten, die heute schon von gewöhnlichen PCs verkörpert werden, neue und intensivere Vermittlungsmethoden der mediumspezifisch aufbereiteten Geodaten. Die intensiveren Vermittlungsmethoden verfolgen das Ziel, die raumbasierte Information unmissverständlich und möglichst eindringlich an die Rezipienten zu liefern.
Diese Forschungsarbeit untersucht notwendige Adaptierungen visualisierungsmethodischer Parameter im Kontext mit perzeptionsgerechter Informationsaufbereitung, medienkonformen Abhängigkeiten und psychologischen Grundgrößen bei der kartografischen Kommunikation mit 3D. Die Gestaltungsmechanismen der 3D Computergrafik, die für eine realitätsnahe Raumsimulation mit eindringlicher Wirkung beim Betrachter geschaffen sind, erweitern das herkömmliche semiotische Modell der grafischen Variablen und Elemente. Dabei sind gegenseitige Einflüsse zwischen den Gestaltungsmechanismen, grafischen Variablen und psychologischen Verarbeitungsschritten beobachtbar.
Die positive Argumentation für die 3D Visualisierungsmethodik in der digitalen Kartografie stützt sich dabei auf aktuelle Erkenntnisse der Kommunikationsforschung [Bonfadelli 2004, Merten 1977, Müller 2003], Lerntheorien, Wissensakquisition und den menschlichen Verarbeitungsprozessen.
Die resultierende semiotische Struktur berücksichtigt die Grundlagen perzeptionsgerechter Bildschirmkartografie [Malic 1998, Neudeck 2001], medienspezifischer Eigenschaften und Grundlagen der Computergrafik.
Die Ergebnisse dieser Forschungsarbeit betreffen sämtliche kartografische Anwendungsbereiche, in welchen 3D Präsentationsformen für den raumbasierten Vermittlungsprozess eingesetzt werden und gehen darüber hinaus. Denn die gesamtheitliche Darstellung der kartografischen Kommunikation als human-technische Massenkommunikation, die einen Kreislauf bildet, ermöglicht nicht nur eine Zuordnung der 3D relevanten Prozesse, sondern auch sämtlicher wissenschaftlich aktiven Forschungsbereiche der GIScience. Die erarbeitete semiotische Struktur und die ausgeführten Überlegungen dieser Arbeit ermöglichen für die kartografische Kommunikation mit 3D Optimierungen, die die Präsentationsfläche ebener Übertragungsmedien besser ausnutzen, Informationsinhalte anpassen und die Wirkung auf psychologische Prozesse berücksichtigen.
Mit diesen Optimierungsmöglichkeiten werden neue wegweisende Perspektiven für den Einsatz von 3D in der Kartografie, z.B. in Fahrzeugnavigationssystemen oder 3D Stadtmodellen, aufgezeigt.
Die fortschreitende Digitalisierung und Paradigmenänderung der modernen Kartografie eröffnet neue Forschungsbereiche der GIScience, die einerseits von intensiveren Vermittlungsmethoden bei raumbasierten Informationen und andererseits vom vielfach öffentlichen Zugang zu allgemeiner Partizipation bei der Geoinformation geprägt sind. Die allgemeine Partizipation bei der Geoinformation wird mit verfügbaren Messgeräten zur Datenaufnahme (GPS Empfänger) und geeigneten globalen Plattformen des Internet für den Datenaustausch vorangetrieben. Aus dieser massiven Geodatenverfügbarkeit entstehen mit leistungsfähigen Verarbeitungsgeräten, die heute schon von gewöhnlichen PCs verkörpert werden, neue und intensivere Vermittlungsmethoden der mediumspezifisch aufbereiteten Geodaten. Die intensiveren Vermittlungsmethoden verfolgen das Ziel, die raumbasierte Information unmissverständlich und möglichst eindringlich an die Rezipienten zu liefern.
Diese Forschungsarbeit untersucht notwendige Adaptierungen visualisierungsmethodischer Parameter im Kontext mit perzeptionsgerechter Informationsaufbereitung, medienkonformen Abhängigkeiten und psychologischen Grundgrößen bei der kartografischen Kommunikation mit 3D. Die Gestaltungsmechanismen der 3D Computergrafik, die für eine realitätsnahe Raumsimulation mit eindringlicher Wirkung beim Betrachter geschaffen sind, erweitern das herkömmliche semiotische Modell der grafischen Variablen und Elemente. Dabei sind gegenseitige Einflüsse zwischen den Gestaltungsmechanismen, grafischen Variablen und psychologischen Verarbeitungsschritten beobachtbar.
Die positive Argumentation für die 3D Visualisierungsmethodik in der digitalen Kartografie stützt sich dabei auf aktuelle Erkenntnisse der Kommunikationsforschung [Bonfadelli 2004, Merten 1977, Müller 2003], Lerntheorien, Wissensakquisition und den menschlichen Verarbeitungsprozessen.
Die resultierende semiotische Struktur berücksichtigt die Grundlagen perzeptionsgerechter Bildschirmkartografie [Malic 1998, Neudeck 2001], medienspezifischer Eigenschaften und Grundlagen der Computergrafik.
Die Ergebnisse dieser Forschungsarbeit betreffen sämtliche kartografische Anwendungsbereiche, in welchen 3D Präsentationsformen für den raumbasierten Vermittlungsprozess eingesetzt werden und gehen darüber hinaus. Denn die gesamtheitliche Darstellung der kartografischen Kommunikation als human-technische Massenkommunikation, die einen Kreislauf bildet, ermöglicht nicht nur eine Zuordnung der 3D relevanten Prozesse, sondern auch sämtlicher wissenschaftlich aktiven Forschungsbereiche der GIScience. Die erarbeitete semiotische Struktur und die ausgeführten Überlegungen dieser Arbeit ermöglichen für die kartografische Kommunikation mit 3D Optimierungen, die die Präsentationsfläche ebener Übertragungsmedien besser ausnutzen, Informationsinhalte anpassen und die Wirkung auf psychologische Prozesse berücksichtigen.
Mit diesen Optimierungsmöglichkeiten werden neue wegweisende Perspektiven für den Einsatz von 3D in der Kartografie, z.B. in Fahrzeugnavigationssystemen oder 3D Stadtmodellen, aufgezeigt.
Development of a Pedestrian Navigation System
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2008
1. Begutachter: Univ.-Prof. Dr.techn. Dr.h.c. Bernhard Hofmann-Wellenhof
2. Begutachter: Univ.-Prof. Dr.-Ing. habil. Thomas Wunderlich, Technische Universität München
1. Begutachter: Univ.-Prof. Dr.techn. Dr.h.c. Bernhard Hofmann-Wellenhof
2. Begutachter: Univ.-Prof. Dr.-Ing. habil. Thomas Wunderlich, Technische Universität München
Kurzfassung/Abstract
Globale Satellitennavigationssysteme (GNSS) gewinnen in der heutigen Gesellschaft immer mehr an Bedeutung. Doch in klassischen Fußgängerbereichen wie z.B. in Häuserschluchten oder im Inneren von Gebäuden, erreicht satellitengestützte Positionierung schnell ihr technologisches Limit. Während GNSS für Touristen und Sportler ausreichend erscheinen mag, stößt es bei sicherheitskritischen Anwendungen, wo hohe Genauigkeit, Verfügbarkeit, Zuverlässigkeit und Qualität von Bedeutung sind, schnell an seine Grenzen. Die Integration zusätzlicher Sensoren kann diese Einschränkung von GNSS kompensieren. Die vorliegende Dissertation beschäftigt sich mit der Entwicklung eines integrierten Fußgängernavigationssystems, welches neben einem GPS Empfänger ein Transponder System sowie autonome Sensoren, und zwar einen magnetischen Kompass, Drehratensensoren, Beschleunigungssensoren und ein Barometer, enthält. Das entwickelte System soll sowohl Genauigkeit als auch Verfügbarkeit und Zuverlässigkeit speziell für sicherheitskritische Anwendungen, wie z.B. Feuerwehr, Rettungsdienste, Polizei, etc., in oben genannten Umgebungen verbessern. Während der erste Teil dieser Arbeit einen kurzen Einblick in die Fußgängernavigation und den entwickelten Prototypen gibt, beschäftigt sich der zweite Abschnitt mit speziell entwickelten Softwarealgorithmen für die diversen Sensortypen. Der dritte Teil zeigt abschließend die Umsetzung eines Kalman Filters mit einigen ausgewählten Positions- und Höhenresultaten.
Globale Satellitennavigationssysteme (GNSS) gewinnen in der heutigen Gesellschaft immer mehr an Bedeutung. Doch in klassischen Fußgängerbereichen wie z.B. in Häuserschluchten oder im Inneren von Gebäuden, erreicht satellitengestützte Positionierung schnell ihr technologisches Limit. Während GNSS für Touristen und Sportler ausreichend erscheinen mag, stößt es bei sicherheitskritischen Anwendungen, wo hohe Genauigkeit, Verfügbarkeit, Zuverlässigkeit und Qualität von Bedeutung sind, schnell an seine Grenzen. Die Integration zusätzlicher Sensoren kann diese Einschränkung von GNSS kompensieren. Die vorliegende Dissertation beschäftigt sich mit der Entwicklung eines integrierten Fußgängernavigationssystems, welches neben einem GPS Empfänger ein Transponder System sowie autonome Sensoren, und zwar einen magnetischen Kompass, Drehratensensoren, Beschleunigungssensoren und ein Barometer, enthält. Das entwickelte System soll sowohl Genauigkeit als auch Verfügbarkeit und Zuverlässigkeit speziell für sicherheitskritische Anwendungen, wie z.B. Feuerwehr, Rettungsdienste, Polizei, etc., in oben genannten Umgebungen verbessern. Während der erste Teil dieser Arbeit einen kurzen Einblick in die Fußgängernavigation und den entwickelten Prototypen gibt, beschäftigt sich der zweite Abschnitt mit speziell entwickelten Softwarealgorithmen für die diversen Sensortypen. Der dritte Teil zeigt abschließend die Umsetzung eines Kalman Filters mit einigen ausgewählten Positions- und Höhenresultaten.
Der Nutzen von mehreren Satellitennavigationssystemen bei der Bestimmung von Mehrwegeffekten in dicht besiedelten Gebieten
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2008
Betreuer: Univ.-Doz.. Dr. Andreas Wieser
Betreuer: Univ.-Doz.. Dr. Andreas Wieser
Kurzfassung/Abstract
Das Satellitensignal in dicht besiedelten Gebieten ist stark beeinträchtigt durch die schlechte Sichtbarkeit der Satelliten am Horizont, die ungünstige Geometrie und zusätzlich noch infolge von vermehrt auftretenden Mehrwegeffekten. Durch die Nutzung von mehreren Satellitensystemen und dadurch einer steigenden Anzahl an Satelliten, ist es möglich die ersten beiden Effekte auszuschließen bzw. zu reduzieren. Die Sicherheit, dass das Signal direkt zum Empfänger gelangt ist jedoch nicht gegeben und die Positionslösung ist noch immer stark von Mehrwegeffekten abhängig. Diese Diplomarbeit befasst sich mit den Auswirkungen von genau diesen Mehrwegeffekten mit den drei Navigationssystemen GPS, GLONASS und Galileo. Das Ziel ist die Abschätzung der möglichen Genauigkeitssteigerung der Positionsbestimmung des Empfängers durch das Heranziehen von mehreren Systemen und durch Reduzierung des Mehrwegeffektes.
Das Satellitensignal in dicht besiedelten Gebieten ist stark beeinträchtigt durch die schlechte Sichtbarkeit der Satelliten am Horizont, die ungünstige Geometrie und zusätzlich noch infolge von vermehrt auftretenden Mehrwegeffekten. Durch die Nutzung von mehreren Satellitensystemen und dadurch einer steigenden Anzahl an Satelliten, ist es möglich die ersten beiden Effekte auszuschließen bzw. zu reduzieren. Die Sicherheit, dass das Signal direkt zum Empfänger gelangt ist jedoch nicht gegeben und die Positionslösung ist noch immer stark von Mehrwegeffekten abhängig. Diese Diplomarbeit befasst sich mit den Auswirkungen von genau diesen Mehrwegeffekten mit den drei Navigationssystemen GPS, GLONASS und Galileo. Das Ziel ist die Abschätzung der möglichen Genauigkeitssteigerung der Positionsbestimmung des Empfängers durch das Heranziehen von mehreren Systemen und durch Reduzierung des Mehrwegeffektes.
Implementation of a Model for GIS-based Analysis of the Actual Avalanche Danger
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gerald Gruber (FH Technikum Kärnten), Alfred Wieser (Lawinenwarndienst Kärnten)
Betreuer: Gerald Gruber (FH Technikum Kärnten), Alfred Wieser (Lawinenwarndienst Kärnten)
Kurzfassung/Abstract
Lawinengefahr entsteht durch das Zusammenspiel verschiedener Faktoren, die sich auch gegenseitig beeinflussen. Diese Faktoren wurden in der Literature diskutiert und in konstante Faktoren, wie Hangneigung, Exposition, Curvature und Vegetation sowie temporäre Faktoren wie Neuschnee, Wind, Temperatur und Schneedeckenaufbau unterschieden. Zusammen gesehen generieren diese Faktoren die Lawinengefahr. Ziel dieser Arbeit ist ein GIS basierendes Rastermodell, das die aktuelle Lawinengefahr sowohl in regionalem als auch lokalem Massstab einschätzt und nach einer Expertenvalidierung der Ergebnisse sollten die gewonnenen Erkenntnisse dem Endnutzer präsentiert werden. Der Wert dieses Informationssystem liegt in der erhöhten Benutzerfreundlichkeit auf Grund visuell, überarbeiteter Karten, die dazu dienen die aktuelle Lawinengefahr einzuschätzen. Es ermöglicht das semi-automatische Verarbeiten der Rohdaten und die Darstellung der Analysen. Durch das System werden Experten in ihrem Gedankenprozess unterstützt und eine händische Verarbeitung der Rohdaten ist nicht mehr notwendig.
Das Modell startet mit der Vorbereitung der Daten. Niederschlag wird für die beobachtete Zeitperiode in allen Gebieten mit einer Temperatur unter 0°C aufsummiert, Windstärke wird von den Messstationsdaten interpoliert und die Durchschnittstemperatur für jede Zelle wird gebildet. Anschließend werden diese Faktoren im Bezug auf ihre Gefahrenpotential für die Lawinensituation klassifiziert und mit einer Weighted Overlay Operation verknüpft. Diese Resultat wird nochmals reklassifiziert um der Europäischen Lawinengefahrenskala zu entsprechen. Diese Karte beschreibt die Lawinengefahr auf regionalem Niveau.
In einem weiteren Schritt verknüpft eine VBA Funktion diese regionale Information mit den morphologischen Daten und Vegetationsdaten des Gebiets in Form einer boolschen Raster Abfrage mit weiteren Informationen einer User Form und Richtlinien die in der Literatur diskutiert wurden. Das Resultat dieser Abfrage ist eine Karte, die die lokale Lawinengefahr widerspiegelt.
Das Ergebnis der Arbeit ist ein im ArcGIS 9.2 ModelBuilder implementiertes Rastermodell und VBA und Python Scripts für zusätzliche Berechnungen die im ModelBuilder nicht abgebildet werden konnten. Diese Scripts werden benutzt um die iterative Funktion zur Berechnung des Niederschlags in Form von Schnee umzusetzen und die lokale Lawinengefahr in Form der speziell gefährdeten Gebiete einzuschätzen.
Das Modell steht in der ArcGIS Toolbox zur Verfügung und liefert die Darstellung der regionalen Lawinengefahr für die gewünschten Input Parameter.
Mit dieser regionalen Gefahrenkarte kann in einem weiteren Schritt die lokale Lawinengefahr evaluiert werden. Beide Ergebnisse dienen als Entscheidungsgrundlage für Experten die mit der Erstellung von Lawinenlageberichten betraut sind und verbessern somit auch die Ergebnisse für den Endnutzer.
Die mit dem Modell generierten Ergebnisse werden mit einer Experteneinschätzung verglichen und liefern einen zufriedenstellenden Vergleich. Die Modell-generierten Karten sind auf Grund ihrer visuellen Ausprägung leichter verständlich und nicht auf fixe Grenzen limitiert, wie es bei der Expertenevaluierung der Fall ist. Schwachstellen ergeben sich durch die fehlende Eingangsprüfung der Rohdaten der Wetterstationen, was zu Problemen und Missinterpretationen in der Interpolation führen kann. Weiters wird keine explizite Information über den Schneedeckenaufbau im Modell berücksichtigt, da eine Interpolation punktueller Schneeprofile auf Grund der starken Inhomogenität der Schneedecke praktisch nicht sinnvoll ist. Abschließend ist auch die Windrichtungsinformation der Wetterstationen nicht direkt im Modell integriert, da ähnliche Vorraussetzungen wie bei der Schneedecke herrschen. Die Windrichtungsverhältnisse können kleinräumig sehr stark variieren, ein Interpolation ist daher auch hier nicht zielführend.
Lawinengefahr entsteht durch das Zusammenspiel verschiedener Faktoren, die sich auch gegenseitig beeinflussen. Diese Faktoren wurden in der Literature diskutiert und in konstante Faktoren, wie Hangneigung, Exposition, Curvature und Vegetation sowie temporäre Faktoren wie Neuschnee, Wind, Temperatur und Schneedeckenaufbau unterschieden. Zusammen gesehen generieren diese Faktoren die Lawinengefahr. Ziel dieser Arbeit ist ein GIS basierendes Rastermodell, das die aktuelle Lawinengefahr sowohl in regionalem als auch lokalem Massstab einschätzt und nach einer Expertenvalidierung der Ergebnisse sollten die gewonnenen Erkenntnisse dem Endnutzer präsentiert werden. Der Wert dieses Informationssystem liegt in der erhöhten Benutzerfreundlichkeit auf Grund visuell, überarbeiteter Karten, die dazu dienen die aktuelle Lawinengefahr einzuschätzen. Es ermöglicht das semi-automatische Verarbeiten der Rohdaten und die Darstellung der Analysen. Durch das System werden Experten in ihrem Gedankenprozess unterstützt und eine händische Verarbeitung der Rohdaten ist nicht mehr notwendig.
Das Modell startet mit der Vorbereitung der Daten. Niederschlag wird für die beobachtete Zeitperiode in allen Gebieten mit einer Temperatur unter 0°C aufsummiert, Windstärke wird von den Messstationsdaten interpoliert und die Durchschnittstemperatur für jede Zelle wird gebildet. Anschließend werden diese Faktoren im Bezug auf ihre Gefahrenpotential für die Lawinensituation klassifiziert und mit einer Weighted Overlay Operation verknüpft. Diese Resultat wird nochmals reklassifiziert um der Europäischen Lawinengefahrenskala zu entsprechen. Diese Karte beschreibt die Lawinengefahr auf regionalem Niveau.
In einem weiteren Schritt verknüpft eine VBA Funktion diese regionale Information mit den morphologischen Daten und Vegetationsdaten des Gebiets in Form einer boolschen Raster Abfrage mit weiteren Informationen einer User Form und Richtlinien die in der Literatur diskutiert wurden. Das Resultat dieser Abfrage ist eine Karte, die die lokale Lawinengefahr widerspiegelt.
Das Ergebnis der Arbeit ist ein im ArcGIS 9.2 ModelBuilder implementiertes Rastermodell und VBA und Python Scripts für zusätzliche Berechnungen die im ModelBuilder nicht abgebildet werden konnten. Diese Scripts werden benutzt um die iterative Funktion zur Berechnung des Niederschlags in Form von Schnee umzusetzen und die lokale Lawinengefahr in Form der speziell gefährdeten Gebiete einzuschätzen.
Das Modell steht in der ArcGIS Toolbox zur Verfügung und liefert die Darstellung der regionalen Lawinengefahr für die gewünschten Input Parameter.
Mit dieser regionalen Gefahrenkarte kann in einem weiteren Schritt die lokale Lawinengefahr evaluiert werden. Beide Ergebnisse dienen als Entscheidungsgrundlage für Experten die mit der Erstellung von Lawinenlageberichten betraut sind und verbessern somit auch die Ergebnisse für den Endnutzer.
Die mit dem Modell generierten Ergebnisse werden mit einer Experteneinschätzung verglichen und liefern einen zufriedenstellenden Vergleich. Die Modell-generierten Karten sind auf Grund ihrer visuellen Ausprägung leichter verständlich und nicht auf fixe Grenzen limitiert, wie es bei der Expertenevaluierung der Fall ist. Schwachstellen ergeben sich durch die fehlende Eingangsprüfung der Rohdaten der Wetterstationen, was zu Problemen und Missinterpretationen in der Interpolation führen kann. Weiters wird keine explizite Information über den Schneedeckenaufbau im Modell berücksichtigt, da eine Interpolation punktueller Schneeprofile auf Grund der starken Inhomogenität der Schneedecke praktisch nicht sinnvoll ist. Abschließend ist auch die Windrichtungsinformation der Wetterstationen nicht direkt im Modell integriert, da ähnliche Vorraussetzungen wie bei der Schneedecke herrschen. Die Windrichtungsverhältnisse können kleinräumig sehr stark variieren, ein Interpolation ist daher auch hier nicht zielführend.
Erstellung einer Applikation zur Kalibrierung von Digitalkameras
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2008
Betreuer: Ass.-Prof. Dr. Viktor Kaufmann
Betreuer: Ass.-Prof. Dr. Viktor Kaufmann
Kurzfassung/Abstract
Ziel dieser Diplomarbeit ist es, ein semi-automatisches Computerprogramm zur Bestimmung der Parameter der inneren Orientierung von Digitalkameras zu entwickeln, mit dem Hintergrund, die Stabilität der inneren Orientierung möglichst effizient nachweisen zu können. Als Entwicklungsumgebung ist Matlab zu verwenden, um einen modularen Aufbau zu gewährleisten. Die Kalibrierung ist nach den gängigen Verfahren der Photogrammetrie (Lehrbuch Luhmann) durchzuführen.
Ziel dieser Diplomarbeit ist es, ein semi-automatisches Computerprogramm zur Bestimmung der Parameter der inneren Orientierung von Digitalkameras zu entwickeln, mit dem Hintergrund, die Stabilität der inneren Orientierung möglichst effizient nachweisen zu können. Als Entwicklungsumgebung ist Matlab zu verwenden, um einen modularen Aufbau zu gewährleisten. Die Kalibrierung ist nach den gängigen Verfahren der Photogrammetrie (Lehrbuch Luhmann) durchzuführen.
Deformationsmessung mit Hilfe bildgebender Tachymeter
Institut für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2008
Begutachter: o.Univ.-Prof. Dr.Ing. Kahmen Heribert
Betreuer: Dipl.-Ing. Dr.techn. Reiterer Alexander
Begutachter: o.Univ.-Prof. Dr.Ing. Kahmen Heribert
Betreuer: Dipl.-Ing. Dr.techn. Reiterer Alexander
Kurzfassung/Abstract
Ziel dieser Arbeit ist es, das von Leica Geosystems und dem Institut für Geodäsie und Geophysik der Technischen Universität Wien entwickelte Messsystem DefCo im Hinblick auf die Nutzbarkeit für Deformationsmessungen zu evaluieren.
Für die Evaluierung des Messsystems wurden sämtliche Arbeitsschritte, welche aus Bildaufnahme, Objektstrukturierung, Punkterfassung, Matching und Deformationsanalyse bestehen, der Reihe nach getestet und beurteilt. Dabei wurden sowohl künstliche Bilddatenbanken, als auch ein reales Messobjekt verwendet.
Die Messprozedur zeigte sich als gut konzipiert und im praktischen Einsatz als zuverlässig. Aufgrund des prototypischen Entwicklungsstadiums des Systems zeigen sich jedoch noch einige Schwachstellen. Diese können teilweise durch eine Anpassung bzw. Erweiterung der Algorithmik beseitigt werden -- teilweise sollte über eine Neuimplementierung nachgedacht werden. Zu den problematischsten Algorithmen zählt dabei die eigentliche Punkterfassung im Bild. Hier zeigte sich, dass Beleuchtungsänderungen zu erheblichen Problemen bei der Erfassung der relevanten Punkte führen. Zu dem stellt sich in diesem Zusammenhang die Frage, ob die von einem Algorithmus erfassten markanten Punkte auch die für eine Deformationsanalyse wesentlichen sind. Angedacht könnte hier eine wissensbasierte bzw. objektbasierte Punkterfassung werden, welche auf Grundlage von Vorinformationen über das Objekt den Erfassungsvorgang steuert.
Den Abschluss der Arbeit bildet eine Empfehlung für zukünftige Verbesserungen bzw. Erweiterungen des Messsystems.
Ziel dieser Arbeit ist es, das von Leica Geosystems und dem Institut für Geodäsie und Geophysik der Technischen Universität Wien entwickelte Messsystem DefCo im Hinblick auf die Nutzbarkeit für Deformationsmessungen zu evaluieren.
Für die Evaluierung des Messsystems wurden sämtliche Arbeitsschritte, welche aus Bildaufnahme, Objektstrukturierung, Punkterfassung, Matching und Deformationsanalyse bestehen, der Reihe nach getestet und beurteilt. Dabei wurden sowohl künstliche Bilddatenbanken, als auch ein reales Messobjekt verwendet.
Die Messprozedur zeigte sich als gut konzipiert und im praktischen Einsatz als zuverlässig. Aufgrund des prototypischen Entwicklungsstadiums des Systems zeigen sich jedoch noch einige Schwachstellen. Diese können teilweise durch eine Anpassung bzw. Erweiterung der Algorithmik beseitigt werden -- teilweise sollte über eine Neuimplementierung nachgedacht werden. Zu den problematischsten Algorithmen zählt dabei die eigentliche Punkterfassung im Bild. Hier zeigte sich, dass Beleuchtungsänderungen zu erheblichen Problemen bei der Erfassung der relevanten Punkte führen. Zu dem stellt sich in diesem Zusammenhang die Frage, ob die von einem Algorithmus erfassten markanten Punkte auch die für eine Deformationsanalyse wesentlichen sind. Angedacht könnte hier eine wissensbasierte bzw. objektbasierte Punkterfassung werden, welche auf Grundlage von Vorinformationen über das Objekt den Erfassungsvorgang steuert.
Den Abschluss der Arbeit bildet eine Empfehlung für zukünftige Verbesserungen bzw. Erweiterungen des Messsystems.
Untersuchungen zur astrogeodätischen Geoidlösung im Südosten Österreichs
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2007
Betreuer: Ao-.Univ.-Prof. Dr. Norbert Kühtreiber
Betreuer: Ao-.Univ.-Prof. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Die exakte Kenntnis des Geoids ist für jedes Land von großer Bedeutung. Die zuletzt in Österreich durchgeführte Geoidberechnung im Jahr 2002, stammt von Norbert Kühtreiber. Das Geoid wurde mit Hilfe der Kollokation nach kleinsten Quadraten aus einer Kombination von Schwereanomalien und Lotabweichungen bestimmt. Im Rahmen dieser Berechnungen wurden auch ein rein gravimetrisches und ein rein astrogeodätisches Geoid von Österreich bestimmt. Bei dem Vergleich der beiden Verfahren zeigen sich in einigen Regionen große Differenzen. Die größten Abweichungen treten im Südosten Österreichs auf. Im Rahmen dieser Magisterarbeit wurden die Abweichungen zwischen der gravimetrischen und der astrogeodätischen Geoidlösung in diesem Gebiet untersucht. In mehreren Simulationen wurden mit Hilfe der Kollokation nach kleinsten Quadraten verschiedenen Konfigurationen der Lotabweichungspunkte untersucht. Die Ergebnisse dieser Simulationen bildeten die Basis für die Auswahl von Punkten für die Neumessungen der beiden Komponenten. Die Beobachtung der astronomischen Länge und Breite zur Bestimmung der Lotabweichungskomponenten erfolgte mit dem Messsystem ICARUS, welches von Dr. Beat Bürki, ETH-Zürich, entwickelt wurde. Abschließend wurde der Einfluss der Neumessungen auf die Geoidlösung untersucht.
Die exakte Kenntnis des Geoids ist für jedes Land von großer Bedeutung. Die zuletzt in Österreich durchgeführte Geoidberechnung im Jahr 2002, stammt von Norbert Kühtreiber. Das Geoid wurde mit Hilfe der Kollokation nach kleinsten Quadraten aus einer Kombination von Schwereanomalien und Lotabweichungen bestimmt. Im Rahmen dieser Berechnungen wurden auch ein rein gravimetrisches und ein rein astrogeodätisches Geoid von Österreich bestimmt. Bei dem Vergleich der beiden Verfahren zeigen sich in einigen Regionen große Differenzen. Die größten Abweichungen treten im Südosten Österreichs auf. Im Rahmen dieser Magisterarbeit wurden die Abweichungen zwischen der gravimetrischen und der astrogeodätischen Geoidlösung in diesem Gebiet untersucht. In mehreren Simulationen wurden mit Hilfe der Kollokation nach kleinsten Quadraten verschiedenen Konfigurationen der Lotabweichungspunkte untersucht. Die Ergebnisse dieser Simulationen bildeten die Basis für die Auswahl von Punkten für die Neumessungen der beiden Komponenten. Die Beobachtung der astronomischen Länge und Breite zur Bestimmung der Lotabweichungskomponenten erfolgte mit dem Messsystem ICARUS, welches von Dr. Beat Bürki, ETH-Zürich, entwickelt wurde. Abschließend wurde der Einfluss der Neumessungen auf die Geoidlösung untersucht.
Untersuchung der geometrischen Genauigkeit automatisch erfasster 3D-Stadtmodelle im Vergleich zu GIS-Daten
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Christian Menard (FH Technikum Kärnten), Christopher Zach (VRVis), Konrad Karner (Microsoft Photogrammetry)
Betreuer: Christian Menard (FH Technikum Kärnten), Christopher Zach (VRVis), Konrad Karner (Microsoft Photogrammetry)
Kurzfassung/Abstract
Das Ziel dieser Arbeit besteht darin, Workflows zur Bestimmung der Genauigkeit von Daten des automatischen 3D - Modellierungsworkflows von Microsoft Photogrammetry zu entwickeln. Es soll bestimmt werden, in welchem Ausmaß die automatisch generierten Daten mit herkömmlich erfassten GIS - Daten übereinstimmen. Weiters soll dieser Vergleich genutzt werden, um eine Methode der Change Detection zu entwickeln.
Das primäre Qualitätskriterium für die untersuchten 3D - Stadtmodelle (im Hinblick auf die Verwendung in Microsoft's Virtual Earth) ist ein einwandfreies visuelles Erscheinungsbild, welches aber nicht automatisch gemessen werden kann. Daher muss die Genauigkeit auf eine andere Art und Weise bestimmt werden. Die Schwierigkeit der Problemstellung liegt darin, dass in der Literatur keine Methode existiert, um die Genauigkeit eines vollständigen 3D - Modells zu bestimmen. Aus diesem Grund wird die Untersuchung auf Zwischenergebnisse aus dem Modellierungsworkflow eingeschränkt, deren Genauigkeit Auswirkungen auf den Erfolg der 3D - Modellierung hat. Diese Zwischenergebnisse sind: die Klassifikation der Luftbilder, das Höhenmodell und die modellierten Gebäudeumriss - Linien. Im Zuge der Genauigkeitsuntersuchung werden Kennzahlen ermittelt, die die Übereinstimmung jeder der drei Datengruppen relativ zu Referenzdaten des Stadtvermessungsamtes Graz wiedergeben.
Die Klassifikation der Luftbilder in die Klasse "Gebäude" ergibt eine Overall Accuracy von 95% und einen Kappa-Index von 89% im Vergleich zu den Referenzdaten. Die Klasse "Straße" erreicht eine Overall Accuracy von 89% und einen Kappa-Index von 71%. Der mittlere Fehler des Höhenmodells beträgt 18cm. Die mittlere Lagegenauigkeit der Gebäudeumrisse beträgt 75cm.
In Bezug auf die Referenzdaten liefert der automatische Modellierungsworkflow ausgezeichnete Ergebnisse. Die Klassifikationsergebnisse stimmen großteils mit den GIS-Daten überein und auch die beiden anderen Datengruppen weisen eine zufriedenstellende Genauigkeit (unter Berücksichtigung der Fehler in den Referenzdaten selbst) auf.
Das Ziel dieser Arbeit besteht darin, Workflows zur Bestimmung der Genauigkeit von Daten des automatischen 3D - Modellierungsworkflows von Microsoft Photogrammetry zu entwickeln. Es soll bestimmt werden, in welchem Ausmaß die automatisch generierten Daten mit herkömmlich erfassten GIS - Daten übereinstimmen. Weiters soll dieser Vergleich genutzt werden, um eine Methode der Change Detection zu entwickeln.
Das primäre Qualitätskriterium für die untersuchten 3D - Stadtmodelle (im Hinblick auf die Verwendung in Microsoft's Virtual Earth) ist ein einwandfreies visuelles Erscheinungsbild, welches aber nicht automatisch gemessen werden kann. Daher muss die Genauigkeit auf eine andere Art und Weise bestimmt werden. Die Schwierigkeit der Problemstellung liegt darin, dass in der Literatur keine Methode existiert, um die Genauigkeit eines vollständigen 3D - Modells zu bestimmen. Aus diesem Grund wird die Untersuchung auf Zwischenergebnisse aus dem Modellierungsworkflow eingeschränkt, deren Genauigkeit Auswirkungen auf den Erfolg der 3D - Modellierung hat. Diese Zwischenergebnisse sind: die Klassifikation der Luftbilder, das Höhenmodell und die modellierten Gebäudeumriss - Linien. Im Zuge der Genauigkeitsuntersuchung werden Kennzahlen ermittelt, die die Übereinstimmung jeder der drei Datengruppen relativ zu Referenzdaten des Stadtvermessungsamtes Graz wiedergeben.
Die Klassifikation der Luftbilder in die Klasse "Gebäude" ergibt eine Overall Accuracy von 95% und einen Kappa-Index von 89% im Vergleich zu den Referenzdaten. Die Klasse "Straße" erreicht eine Overall Accuracy von 89% und einen Kappa-Index von 71%. Der mittlere Fehler des Höhenmodells beträgt 18cm. Die mittlere Lagegenauigkeit der Gebäudeumrisse beträgt 75cm.
In Bezug auf die Referenzdaten liefert der automatische Modellierungsworkflow ausgezeichnete Ergebnisse. Die Klassifikationsergebnisse stimmen großteils mit den GIS-Daten überein und auch die beiden anderen Datengruppen weisen eine zufriedenstellende Genauigkeit (unter Berücksichtigung der Fehler in den Referenzdaten selbst) auf.
GPS/IMU Integration für die präzise Bestimmung von hoch kinematischen Flugtrajektorien
Institut für Geodäsie und Geophysik, Technische Universität Wien
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr.techn. Robert Weber, Institut für Geodäsie und Geophysik, TU Wien
Betreuer: Dr.-Ing. Andreas Eichhorn und A.o.Univ.Prof. Dipl.-Ing. Dr.techn. Robert Weber, Institut für Geodäsie und Geophysik, TU Wien
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr.techn. Robert Weber, Institut für Geodäsie und Geophysik, TU Wien
Betreuer: Dr.-Ing. Andreas Eichhorn und A.o.Univ.Prof. Dipl.-Ing. Dr.techn. Robert Weber, Institut für Geodäsie und Geophysik, TU Wien
Kurzfassung/Abstract
Um aus luftfahrzeuggetragenen Laserscannermessungen Punkte auf oder nahe der Erdoberfläche bestimmen zu können, ist es notwendig, die Position und die räumliche Orientierung des Laserscanners und somit die Flugtrajektorie des Luftfahrzeugs zu jedem Zeitpunkt in einem entsprechenden Koordinatensystem zu kennen. Zur Bestimmung dieser Parameter sind verschiedene Sensoren im und am Luftfahrzeug montiert. Dies sind ein GPS/GLONASS Empfänger und ein zur Bestimmung der räumlichen Orientierung notwendiges Trägheitsnavigationssystem (IMU). Aufgrund der sehr hohen Datenrate des Trägheitsnavigationssystems wird eine entsprechende Verdichtung der zu bestimmenden Parameter der Flugtrajektorie gewährleistet. Diese beiden Messsysteme basieren auf vollkommen verschiedenen physikalischen Messprinzipien und besitzen daher auch konträre Eigenschaften. Durch Kombination beider Messsysteme können somit die Schwächen des einen mit den Stärken des anderen kompensiert werden und umgekehrt. Das Hauptziel dieser Diplomarbeit ist die präzise Bestimmung von hoch kinematischen Flugtrajektorien durch Verknüpfung der einzelnen Sensoren mit einem Kalman-Filter. Dazu soll ein offener, transparenter Algorithmus entwickelt werden. Zur Überprüfung des erstellten Algorithmus können die vorhandenen Messdaten auch mit dem kommerziellen Softwarepaket Waypoint berechnet werden. Als Eingangsdaten für die Verknüpfung werden die Ergebnisse der getrennten Auswertung der GPS-Messungen und der Messungen des Trägheitsnavigationssystems benötigt. Von besonderem Interesse ist die Auswertung der Messungen des Trägheitsnavigationssystems. Untersucht werden unter anderem die Bestimmung der Anfangswerte der räumlichen Orientierung im Initialisierungsvorgang und die Möglichkeiten der Reduktion der gemessenen Beschleunigungen um die Erdschwerebeschleunigung. Des Weiteren wird gezeigt, wie sich verschiedene Fehler (z.B. systematische Fehler der Sensoren) auf die Langzeitgenauigkeit der aus den Messungen des Trägheitsnavigationssystems abgeleiteten Flugtrajektorie auswirken. Das ist für die anschließende Verknüpfung entscheidend, um etwaige Ausfälle von GPS-Beobachtungen (z.B.: zu wenig Satelliten verfügbar) überbrücken zu können. Dazu werden GPS-Ausfälle während des Fluges simuliert und die Auswirkung auf die gefilterte Flugtrajektorie aufgezeigt.
Um aus luftfahrzeuggetragenen Laserscannermessungen Punkte auf oder nahe der Erdoberfläche bestimmen zu können, ist es notwendig, die Position und die räumliche Orientierung des Laserscanners und somit die Flugtrajektorie des Luftfahrzeugs zu jedem Zeitpunkt in einem entsprechenden Koordinatensystem zu kennen. Zur Bestimmung dieser Parameter sind verschiedene Sensoren im und am Luftfahrzeug montiert. Dies sind ein GPS/GLONASS Empfänger und ein zur Bestimmung der räumlichen Orientierung notwendiges Trägheitsnavigationssystem (IMU). Aufgrund der sehr hohen Datenrate des Trägheitsnavigationssystems wird eine entsprechende Verdichtung der zu bestimmenden Parameter der Flugtrajektorie gewährleistet. Diese beiden Messsysteme basieren auf vollkommen verschiedenen physikalischen Messprinzipien und besitzen daher auch konträre Eigenschaften. Durch Kombination beider Messsysteme können somit die Schwächen des einen mit den Stärken des anderen kompensiert werden und umgekehrt. Das Hauptziel dieser Diplomarbeit ist die präzise Bestimmung von hoch kinematischen Flugtrajektorien durch Verknüpfung der einzelnen Sensoren mit einem Kalman-Filter. Dazu soll ein offener, transparenter Algorithmus entwickelt werden. Zur Überprüfung des erstellten Algorithmus können die vorhandenen Messdaten auch mit dem kommerziellen Softwarepaket Waypoint berechnet werden. Als Eingangsdaten für die Verknüpfung werden die Ergebnisse der getrennten Auswertung der GPS-Messungen und der Messungen des Trägheitsnavigationssystems benötigt. Von besonderem Interesse ist die Auswertung der Messungen des Trägheitsnavigationssystems. Untersucht werden unter anderem die Bestimmung der Anfangswerte der räumlichen Orientierung im Initialisierungsvorgang und die Möglichkeiten der Reduktion der gemessenen Beschleunigungen um die Erdschwerebeschleunigung. Des Weiteren wird gezeigt, wie sich verschiedene Fehler (z.B. systematische Fehler der Sensoren) auf die Langzeitgenauigkeit der aus den Messungen des Trägheitsnavigationssystems abgeleiteten Flugtrajektorie auswirken. Das ist für die anschließende Verknüpfung entscheidend, um etwaige Ausfälle von GPS-Beobachtungen (z.B.: zu wenig Satelliten verfügbar) überbrücken zu können. Dazu werden GPS-Ausfälle während des Fluges simuliert und die Auswirkung auf die gefilterte Flugtrajektorie aufgezeigt.
Echtzeitmonitoring von Teilnehmern an Mountainbike-Orienteering Rennen
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2007
Betreuer: Ao-.Univ.-Prof. Dr. Manfred Wieser
Betreuer: Ao-.Univ.-Prof. Dr. Manfred Wieser
Kurzfassung/Abstract
Mountainbike-Orienteering Rennen sind derzeit für Zuschauer leider nicht sehr attraktiv. Das Problem besteht darin, dass die Teilnehmer im Wald nicht beobachtet werden können. Zwischenzeiten werden erst am Ende des Rennens ausgewertet. Spannung für die Zuschauer kann bisher nur dadurch erzeugt werden, dass Streckenposten einzelne Zwischenzeiten an den Sprecher übermitteln. Um solche Rennen für Zuschauer attraktiver zu gestalten, wird im Rahmen dieser Magisterarbeit ein System entwickelt, das die Routen in Echtzeit visualisiert, sodass das Rennen zum Beispiel auf einer Videowall live verfolgt werden kann. Ebenso bringt dieses System Erleichterung für den Organisator, da verbotene Abkürzungen genau verfolgt werden können und so jedes regelwidrige Verhalten geahndet werden kann. Die technische Umsetzung erfolgt wie nachstehend beschrieben: Mit Hilfe von GPS wird die Position der Teilnehmer in einem mitgeführten PDA gespeichert. Mittels Mobilfunk werden die Positionsdaten vom PDA an einen Server übermittelt. Nun ist noch ein Map Matching notwendig, damit die einzelnen Positionen sich genau mit den Wegen der digitalen Karte überdecken. Die Positionsdaten werden, mit der Orientierungskarte im Hintergrund, visualisiert und quasi in Echtzeit dargestellt. So können Zuschauer das Rennen auf einer Videowall live miterleben.
Mountainbike-Orienteering Rennen sind derzeit für Zuschauer leider nicht sehr attraktiv. Das Problem besteht darin, dass die Teilnehmer im Wald nicht beobachtet werden können. Zwischenzeiten werden erst am Ende des Rennens ausgewertet. Spannung für die Zuschauer kann bisher nur dadurch erzeugt werden, dass Streckenposten einzelne Zwischenzeiten an den Sprecher übermitteln. Um solche Rennen für Zuschauer attraktiver zu gestalten, wird im Rahmen dieser Magisterarbeit ein System entwickelt, das die Routen in Echtzeit visualisiert, sodass das Rennen zum Beispiel auf einer Videowall live verfolgt werden kann. Ebenso bringt dieses System Erleichterung für den Organisator, da verbotene Abkürzungen genau verfolgt werden können und so jedes regelwidrige Verhalten geahndet werden kann. Die technische Umsetzung erfolgt wie nachstehend beschrieben: Mit Hilfe von GPS wird die Position der Teilnehmer in einem mitgeführten PDA gespeichert. Mittels Mobilfunk werden die Positionsdaten vom PDA an einen Server übermittelt. Nun ist noch ein Map Matching notwendig, damit die einzelnen Positionen sich genau mit den Wegen der digitalen Karte überdecken. Die Positionsdaten werden, mit der Orientierungskarte im Hintergrund, visualisiert und quasi in Echtzeit dargestellt. So können Zuschauer das Rennen auf einer Videowall live miterleben.
Comparison, Analysis and Visualisation of Multiple Scenarios for Network Infrastructures
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gernot Paulus (FH Technikum Kärnten), Karl Heinz Eder (FH Technikum Kärnten)
Betreuer: Gernot Paulus (FH Technikum Kärnten), Karl Heinz Eder (FH Technikum Kärnten)
Kurzfassung/Abstract
The area wide expansion of fiber optic access networks (last mile) requires enormous financial resources. The according costs are mainly determined by the underground work (cable laying). Based on this fact, information about the relation between investment volume and corresponding return on investment represents a crucial competitive factor for new network- or network augmentation projects. The FHplus project NETQUEST focuses on the development of decision supporting tools for network carriers which allow the simulation and optimization of cable laying routes for new networks or network augmentation projects within urban areas. The project, described in this thesis, is a subproject of the NETQUEST project. NETQUEST is divided into data preparation, optimization and result visualization and interpretation. The current status of NETQUEST is that data preparation and the corresponding interface to the optimization is defined and RTR_R2007a as first optimization tool is implemented. The result of this tool is the starting position of this thesis and can be used for GIS based visualisation and interpretation. Therefore, this thesis describes the development of a tool that graphical displays and compares the optimized cable laying networks. Simu2GIS, an implemented ArcGIS 9.2 Toolbar, is a first prototype that supports the visualisation and comparison of these optimized result sets. The converted cable laying results are stored in a Geodatabase and retrieved for visualisation- and comparison reasons. Two cable laying results can be graphical compared and analysed in two digital maps at the same time. The comparison functionality uses the Multicriteria Decision Making methods in order to identify the best alternative in respect to the decision elements and expert's preferences. Simu2GIS is a helpful tool that supports visualisation- and comparison approaches, allows the interpretation of optimized results and facilitates the decision making process by expert knowledge.
The area wide expansion of fiber optic access networks (last mile) requires enormous financial resources. The according costs are mainly determined by the underground work (cable laying). Based on this fact, information about the relation between investment volume and corresponding return on investment represents a crucial competitive factor for new network- or network augmentation projects. The FHplus project NETQUEST focuses on the development of decision supporting tools for network carriers which allow the simulation and optimization of cable laying routes for new networks or network augmentation projects within urban areas. The project, described in this thesis, is a subproject of the NETQUEST project. NETQUEST is divided into data preparation, optimization and result visualization and interpretation. The current status of NETQUEST is that data preparation and the corresponding interface to the optimization is defined and RTR_R2007a as first optimization tool is implemented. The result of this tool is the starting position of this thesis and can be used for GIS based visualisation and interpretation. Therefore, this thesis describes the development of a tool that graphical displays and compares the optimized cable laying networks. Simu2GIS, an implemented ArcGIS 9.2 Toolbar, is a first prototype that supports the visualisation and comparison of these optimized result sets. The converted cable laying results are stored in a Geodatabase and retrieved for visualisation- and comparison reasons. Two cable laying results can be graphical compared and analysed in two digital maps at the same time. The comparison functionality uses the Multicriteria Decision Making methods in order to identify the best alternative in respect to the decision elements and expert's preferences. Simu2GIS is a helpful tool that supports visualisation- and comparison approaches, allows the interpretation of optimized results and facilitates the decision making process by expert knowledge.
Evaluation of Adjustment Computations for the 3D Affine Transformation
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Karl Heinz Eder (FH Technikum Kärnten), Stig Frode Samnoy (Bergen University College)
Betreuer: Karl Heinz Eder (FH Technikum Kärnten), Stig Frode Samnoy (Bergen University College)
Kurzfassung/Abstract
In den letzten Jahren entstand im Fachbereich der Geodäsie ein erneutes Interesse für die Berechnung der Transformation zwischen zwei unabhängigen Koordinatensystemen mit Hilfe von Ausgleichsrechnungen. Der Grund dafür ist die stetige Weiterentwicklung des Global Positioning Systems (GPS) und der Notwendigkeit, Altdaten, die in einem nationalen System erfasst wurden, mit genauen GPS Daten zu fusionieren. Um dies zu erreichen, muss eine von der Transformation abhängige Anzahl an Passpunkten in beiden Systemen erfasst werden, um somit die Transformation zwischen den beiden Koordinatensystemen errechnen zu können. Für diesen Zweck wird häufig der traditionelle Ordinary Least Squares (OLS) Ansatz verwendet, der aber nur die Passpunkte in einem der beiden Koordinatensysteme als Messung (also als fehlerbehaftet) behandeln kann. Das Problem liegt darin, dass die Koordinaten der Passpunkte in beiden Systemen mit zufälligen Fehlern behaftet sind.
Um dem zu begegnen wurden sogenannte Errors In Variables (EIV) Modelle, wie General Least Squares (GLS) und Total Least Squares (TLS), eingeführt die die Passpunkte in beiden Systemen als fehlerbehaftet behandeln. Der Zweck dieser Diplomarbeit ist deshalb eine Software zur Evaluierung der drei Ausgleichsrechnungen speziell für die 3D affine Transformation in Hinblick auf den Rechenaufwand der Algorithmen und deren Genauigkeit.
In den letzten Jahren entstand im Fachbereich der Geodäsie ein erneutes Interesse für die Berechnung der Transformation zwischen zwei unabhängigen Koordinatensystemen mit Hilfe von Ausgleichsrechnungen. Der Grund dafür ist die stetige Weiterentwicklung des Global Positioning Systems (GPS) und der Notwendigkeit, Altdaten, die in einem nationalen System erfasst wurden, mit genauen GPS Daten zu fusionieren. Um dies zu erreichen, muss eine von der Transformation abhängige Anzahl an Passpunkten in beiden Systemen erfasst werden, um somit die Transformation zwischen den beiden Koordinatensystemen errechnen zu können. Für diesen Zweck wird häufig der traditionelle Ordinary Least Squares (OLS) Ansatz verwendet, der aber nur die Passpunkte in einem der beiden Koordinatensysteme als Messung (also als fehlerbehaftet) behandeln kann. Das Problem liegt darin, dass die Koordinaten der Passpunkte in beiden Systemen mit zufälligen Fehlern behaftet sind.
Um dem zu begegnen wurden sogenannte Errors In Variables (EIV) Modelle, wie General Least Squares (GLS) und Total Least Squares (TLS), eingeführt die die Passpunkte in beiden Systemen als fehlerbehaftet behandeln. Der Zweck dieser Diplomarbeit ist deshalb eine Software zur Evaluierung der drei Ausgleichsrechnungen speziell für die 3D affine Transformation in Hinblick auf den Rechenaufwand der Algorithmen und deren Genauigkeit.
Riparian Ecosystems Dynamic Model
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gregory Egger (Umweltbüro Klagenfurt), Gernot Paulus (FH Technikum Kärnten)
Betreuer: Gregory Egger (Umweltbüro Klagenfurt), Gernot Paulus (FH Technikum Kärnten)
Kurzfassung/Abstract
The importance of riparian ecosystems and the lack of specific models or software able to mimic floodplain ecosystem behavior lead to the will of implementing a dynamic, wide applicable and with spatial referenced inputs and outputs model. Model computer implementation (coding) objective is to simulate the spatiotemporal evolution of a riparian ecosystem in response of variables determine by discharge variations and morphology. Model must produce results with spatial attributes (maps). Model must have a user interface, be well documented and be portable through different computer systems. Results must be available to display with a user defined legend and beside the maps, the model output must include a file where is recorded the area of each cover type for each simulated year. The overall modeling procedure, from concept to experiments, is a team work, where the Thesis Author role was focused only on the coding of the concept model.
Model development begun with a first scoping phase which has been dedicated to the implementation design. Second phase was the coding of the models. Models are coded in ArcGis® model builder environment, integrated with Python geoprocessing scripts and supported by an MS Access database. Beside the coding, models and sub models functioning and compliance to the concept model have been tested with a dataset portraying a specific portion of the Kootenai River (USA).
Results are two models fully documented and compliant to the objectives: Start condition and Succession retrogression. Beside them it has been made a Visualization tool to displays the outputs of the dynamic model with unique legend. Process works on three succession series. Start Condition model defines the extents of the succession stands and minimum ages of the stages in the study area. These are inputs for the Succession-retrogression model which is made by four sub models and twelve modules (sub-sub models). It evaluates evolution and spatial distribution of floodplain vegetation in regard of yearly dynamic inputs. Such inputs are used to simulate scour disturbance and recruitment, mechanical disturbance and physiological stress. Additional variable is time. Dynamic inputs are stored in a database and dynamically passed to the model by custom python scripts. Models are equipped with interfaces to select inputs, output storage location, set the parameters values, set the number of model iterations and select the database tables where inputs are stored. This feature aids the simulation of different scenarios, hence the exploration of different alternatives of discharge values.
The developed model can be used to aid fulfilling nature conservation objectives since in brings insight on possible riverine landscape evolution in response of river discharge and morphology. Although it is necessary to dispose of a set of hydraulic and morphology inputs modeled separately model has potential to be used as assessing tool for issues involving spatial variables. At this development point, such model can not be considered yet a full spatial decision support system but it can be surely a relevant component of it. Although the model does not evaluate all the consequences deriving from hydraulic works and some inputs have to be created off the model environment, the model is a valuable tool since its features: dynamicity, usability and spatial referenced results yield by multiple hydraulic inputs and varying morphology represent a brand new in floodplain modeling.
The importance of riparian ecosystems and the lack of specific models or software able to mimic floodplain ecosystem behavior lead to the will of implementing a dynamic, wide applicable and with spatial referenced inputs and outputs model. Model computer implementation (coding) objective is to simulate the spatiotemporal evolution of a riparian ecosystem in response of variables determine by discharge variations and morphology. Model must produce results with spatial attributes (maps). Model must have a user interface, be well documented and be portable through different computer systems. Results must be available to display with a user defined legend and beside the maps, the model output must include a file where is recorded the area of each cover type for each simulated year. The overall modeling procedure, from concept to experiments, is a team work, where the Thesis Author role was focused only on the coding of the concept model.
Model development begun with a first scoping phase which has been dedicated to the implementation design. Second phase was the coding of the models. Models are coded in ArcGis® model builder environment, integrated with Python geoprocessing scripts and supported by an MS Access database. Beside the coding, models and sub models functioning and compliance to the concept model have been tested with a dataset portraying a specific portion of the Kootenai River (USA).
Results are two models fully documented and compliant to the objectives: Start condition and Succession retrogression. Beside them it has been made a Visualization tool to displays the outputs of the dynamic model with unique legend. Process works on three succession series. Start Condition model defines the extents of the succession stands and minimum ages of the stages in the study area. These are inputs for the Succession-retrogression model which is made by four sub models and twelve modules (sub-sub models). It evaluates evolution and spatial distribution of floodplain vegetation in regard of yearly dynamic inputs. Such inputs are used to simulate scour disturbance and recruitment, mechanical disturbance and physiological stress. Additional variable is time. Dynamic inputs are stored in a database and dynamically passed to the model by custom python scripts. Models are equipped with interfaces to select inputs, output storage location, set the parameters values, set the number of model iterations and select the database tables where inputs are stored. This feature aids the simulation of different scenarios, hence the exploration of different alternatives of discharge values.
The developed model can be used to aid fulfilling nature conservation objectives since in brings insight on possible riverine landscape evolution in response of river discharge and morphology. Although it is necessary to dispose of a set of hydraulic and morphology inputs modeled separately model has potential to be used as assessing tool for issues involving spatial variables. At this development point, such model can not be considered yet a full spatial decision support system but it can be surely a relevant component of it. Although the model does not evaluate all the consequences deriving from hydraulic works and some inputs have to be created off the model environment, the model is a valuable tool since its features: dynamicity, usability and spatial referenced results yield by multiple hydraulic inputs and varying morphology represent a brand new in floodplain modeling.
Vergleich von aus GRACE-Beobachtungen abgeleiteten monatlichen Massenänderungen mit Niederschlagsdaten in Australien
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2008
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Kurzfassung/Abstract
Die Satellitenmission Gravity Recovery and Climate Experiment (GRACE) liefert seit 2002 Erdschwerefeldlösungen. Neben der Bestimmung eines statischen Schwerefeldes sind die zeitlichen Schwerefeldänderungen in monatlicher Auflösung von besonderer Bedeutung. Diese können mit geodynamischen Phänomenen, im Speziellen mit hydrodynamischen Prozessen, auf und unter der Erdoberfläche in Zusammenhang gebracht werden. Im Zuge dieser Masterarbeit werden Veränderungen des Erdschwerefeldes, hervorgerufen durch Wassermassenvariationen, berechnet und als Massenänderungen in äquivalenter Wassersäule dargestellt. Die daraus resultierenden Zeitreihen werden mit verschiedenen Methoden untersucht, um ein mögliches Trendverhalten und periodische Signale zu finden. Zum einen werden diese Parameter über ein Multiples Lineares Regressionsverfahren gelöst. Das dafür verwendete Modell und die daraus abgeleiteten Größen werden auf ihre Signifikanz untersucht. Die Studie zeigt, dass eine signifikante Abnahme der Oberflächenmassen im Süd-Osten Australiens, sowie ein dominierender jährlicher Zyklus für den Großteil Australiens mit einer Wahrscheinlichkeit von 95% festzustellen sind. Zum anderen wird die Methode der Hauptkomponententransformation verwendet, um die Ergebnisse des Regressionsansatzes zu verifizieren. Weiters werden Regenfalldaten vom Australian Bureau of Meteorology (BOM) und der Satellitenmission Tropical Rainfall Measurement Mission (TRMM) auf gleiche Weise analysiert. Die Untersuchungen liefern ähnliche Resultate. Der Vergleich zwischen Massenänderungen an der Oberfläche und Niederschlagsdaten zeigt, dass in weiten Teilen Australiens die Veränderungen in der Massenbilanz mit den Regenfalldaten korreliert sind. Allerdings kann eine direkte Beziehung zwischen den Größen nicht immer nachgewiesen werden.
Die Satellitenmission Gravity Recovery and Climate Experiment (GRACE) liefert seit 2002 Erdschwerefeldlösungen. Neben der Bestimmung eines statischen Schwerefeldes sind die zeitlichen Schwerefeldänderungen in monatlicher Auflösung von besonderer Bedeutung. Diese können mit geodynamischen Phänomenen, im Speziellen mit hydrodynamischen Prozessen, auf und unter der Erdoberfläche in Zusammenhang gebracht werden. Im Zuge dieser Masterarbeit werden Veränderungen des Erdschwerefeldes, hervorgerufen durch Wassermassenvariationen, berechnet und als Massenänderungen in äquivalenter Wassersäule dargestellt. Die daraus resultierenden Zeitreihen werden mit verschiedenen Methoden untersucht, um ein mögliches Trendverhalten und periodische Signale zu finden. Zum einen werden diese Parameter über ein Multiples Lineares Regressionsverfahren gelöst. Das dafür verwendete Modell und die daraus abgeleiteten Größen werden auf ihre Signifikanz untersucht. Die Studie zeigt, dass eine signifikante Abnahme der Oberflächenmassen im Süd-Osten Australiens, sowie ein dominierender jährlicher Zyklus für den Großteil Australiens mit einer Wahrscheinlichkeit von 95% festzustellen sind. Zum anderen wird die Methode der Hauptkomponententransformation verwendet, um die Ergebnisse des Regressionsansatzes zu verifizieren. Weiters werden Regenfalldaten vom Australian Bureau of Meteorology (BOM) und der Satellitenmission Tropical Rainfall Measurement Mission (TRMM) auf gleiche Weise analysiert. Die Untersuchungen liefern ähnliche Resultate. Der Vergleich zwischen Massenänderungen an der Oberfläche und Niederschlagsdaten zeigt, dass in weiten Teilen Australiens die Veränderungen in der Massenbilanz mit den Regenfalldaten korreliert sind. Allerdings kann eine direkte Beziehung zwischen den Größen nicht immer nachgewiesen werden.
Entwicklung eines web-basierten 3D-Visualisierungssystems für das Bundesamt für Eich- und Vermessungswesen
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Andreas Wytzisk (conTerra), Stefan Klotz (BEV)
Betreuer: Andreas Wytzisk (conTerra), Stefan Klotz (BEV)
Kurzfassung/Abstract
Die Visualisierung detaillierter, dreidimensionaler Bilder hatte schon immer den bewundernswerten Effekt, Betrachter anzulocken und zu faszinieren. Dieser Trend hat sich auch bei der Darstellung geografischer Daten in 3D-Visualisierungssystemen bewahrheitet und in den letzen Jahren für einen enormen Aufschwung in der Systementwicklung und Datenmodellierung gesorgt.
Vor allem der Einsatz serviceorientierter Architekturen und deren Implementierung mit Webservices haben neue Wege eröffnet, verteilte, interoperable und skalierbarer Systeme zu erstellen, die eine Integration und Nutzung verschiedener Daten, Systeme und Applikationen ermöglichen. Diese offene Struktur bietet eine standardisierte Integration benötigter Dienste, die für die Abdeckung eines Geschäftsprozesses wie z.B. die 3D-Visualisierung von Geodaten erforderlich sind.
Die Visualisierung der Geodaten erfolgt anhand komplexer Datenmodelle, in denen die geografischen Daten und topologischen Beziehungen der verschiedenen Datenquellen beschrieben sind. Dabei spielt die Modellierung der Geodaten in verschiedenen Auflösungsstufen, vor allem in Hinblick auf die Übertragungskapazität in verteilten Netzwerken, eine besondere Rolle. Da nur jene Daten übertragen und gerendert werden müssen, die einem entsprechenden Darstellungsmaßstab zugeordnet sind, wird eine Erhöhung der Performance im gesamten System erreicht.
Durch die in der Systemarchitektur zusätzlich integrierten Techniken AJAX, Kachelung (Tiling) und Caching wird eine Performancesteigerung bei der Navigation in Echtzeit auch bei der Visualisierung großer 3D-Darstellungen erreicht.
Das Ziel dieser Arbeit ist die Erstellung eines konzeptionellen interoperablen Visualisierungssystems, mit dem 3D-Ansichten der Erdoberfläche aus den Daten des Bundesamt für Eich- und Vermessungswesen nach den oben angeführten Techniken generiert und über eine Client/Server-Applikation den Kunden des BEV online zur Verfügung gestellt werden können.
Die Visualisierung detaillierter, dreidimensionaler Bilder hatte schon immer den bewundernswerten Effekt, Betrachter anzulocken und zu faszinieren. Dieser Trend hat sich auch bei der Darstellung geografischer Daten in 3D-Visualisierungssystemen bewahrheitet und in den letzen Jahren für einen enormen Aufschwung in der Systementwicklung und Datenmodellierung gesorgt.
Vor allem der Einsatz serviceorientierter Architekturen und deren Implementierung mit Webservices haben neue Wege eröffnet, verteilte, interoperable und skalierbarer Systeme zu erstellen, die eine Integration und Nutzung verschiedener Daten, Systeme und Applikationen ermöglichen. Diese offene Struktur bietet eine standardisierte Integration benötigter Dienste, die für die Abdeckung eines Geschäftsprozesses wie z.B. die 3D-Visualisierung von Geodaten erforderlich sind.
Die Visualisierung der Geodaten erfolgt anhand komplexer Datenmodelle, in denen die geografischen Daten und topologischen Beziehungen der verschiedenen Datenquellen beschrieben sind. Dabei spielt die Modellierung der Geodaten in verschiedenen Auflösungsstufen, vor allem in Hinblick auf die Übertragungskapazität in verteilten Netzwerken, eine besondere Rolle. Da nur jene Daten übertragen und gerendert werden müssen, die einem entsprechenden Darstellungsmaßstab zugeordnet sind, wird eine Erhöhung der Performance im gesamten System erreicht.
Durch die in der Systemarchitektur zusätzlich integrierten Techniken AJAX, Kachelung (Tiling) und Caching wird eine Performancesteigerung bei der Navigation in Echtzeit auch bei der Visualisierung großer 3D-Darstellungen erreicht.
Das Ziel dieser Arbeit ist die Erstellung eines konzeptionellen interoperablen Visualisierungssystems, mit dem 3D-Ansichten der Erdoberfläche aus den Daten des Bundesamt für Eich- und Vermessungswesen nach den oben angeführten Techniken generiert und über eine Client/Server-Applikation den Kunden des BEV online zur Verfügung gestellt werden können.
Geodateninfrastruktur für Anwendungen aus der Naturschutzbiologie
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Karl Heinz Eder (FH Technikum Kärnten), Karl Reiter (Universität Wien)
Betreuer: Karl Heinz Eder (FH Technikum Kärnten), Karl Reiter (Universität Wien)
Kurzfassung/Abstract
Diese Diplomarbeit (DA) beschäftigt sich mit Geodatenmanagement und den diesbezüglichen Stand der Technik. In dieser Arbeit wird das Konzept der Geodateninfrastruktur (GDI) beschrieben. Diese DA wird die gegenwärtige Situation bezüglich des Umganges mit Geodaten am Department für Naturschutzbiologie, Vegetations- und Landschaftsökologie (CVL) beschrieben, wo das Konzept der GDI eingeführt und zukünftig umgesetzt wird.
Mit modernen Geodaten Management ist die Arbeit nicht damit getan wenn die Geodaten auf eine Festplatte gespeichert werden. Es ist notwendig die Geodaten strukturiert und zugänglich, für alle Mitarbeiter die mit diesen Geodaten arbeiten, abzuspeichern. Das ist aber nicht damit getan indem die Geodaten zentral auf einem Geodaten Server abgespeichert werden, vielmehr bedarf es eines Konzepts, das die Zugriffe auf die Geodatenbank regelt und verschiedene GIS miteinander verbindet. Die im vorangegangenen Text angesprochenen Punkte deckt eine GDI ab. Für diese Aufgabe wird eine Geodatenbank benötigt und zusätzlich müssen den Geodaten Metadateninformationen beigefügt werden. Das ermöglicht einen schnellen Zugriff auf die Geodaten da diese nicht verteilt im Netzwerk abgespeichert sind und zudem wir eine gezielte Suche innerhalb der Geodaten ermöglicht. Eine GDI verbindet zudem unterschiedliche GIS miteinander und so können Geodaten von einem GIS in ein anderes GIS transferiert und/oder konvertiert werden bzw. online in einem Internetbrowser an jedem Arbeitsplatz angezeigt werden. Bevor im Laufe des Berufspraktikums im 7. Semester eine Geodatenbank am CVL erstellt worden ist wurden die Geodaten dezentral am Department abgespeichert. Die DA zielt darauf ab, ein Konzept zu entwerfen, welches für die Implementierung einer GDI verwendet werden kann. In dieser Arbeit wird der gegenwärtige Stand der Technik gezeigt und wie verschiedene Typen von Web Services, wie beispielsweise ein Web Map Service, die in der DA gestellten Aufgaben erfüllen können.
Diese Diplomarbeit (DA) beschäftigt sich mit Geodatenmanagement und den diesbezüglichen Stand der Technik. In dieser Arbeit wird das Konzept der Geodateninfrastruktur (GDI) beschrieben. Diese DA wird die gegenwärtige Situation bezüglich des Umganges mit Geodaten am Department für Naturschutzbiologie, Vegetations- und Landschaftsökologie (CVL) beschrieben, wo das Konzept der GDI eingeführt und zukünftig umgesetzt wird.
Mit modernen Geodaten Management ist die Arbeit nicht damit getan wenn die Geodaten auf eine Festplatte gespeichert werden. Es ist notwendig die Geodaten strukturiert und zugänglich, für alle Mitarbeiter die mit diesen Geodaten arbeiten, abzuspeichern. Das ist aber nicht damit getan indem die Geodaten zentral auf einem Geodaten Server abgespeichert werden, vielmehr bedarf es eines Konzepts, das die Zugriffe auf die Geodatenbank regelt und verschiedene GIS miteinander verbindet. Die im vorangegangenen Text angesprochenen Punkte deckt eine GDI ab. Für diese Aufgabe wird eine Geodatenbank benötigt und zusätzlich müssen den Geodaten Metadateninformationen beigefügt werden. Das ermöglicht einen schnellen Zugriff auf die Geodaten da diese nicht verteilt im Netzwerk abgespeichert sind und zudem wir eine gezielte Suche innerhalb der Geodaten ermöglicht. Eine GDI verbindet zudem unterschiedliche GIS miteinander und so können Geodaten von einem GIS in ein anderes GIS transferiert und/oder konvertiert werden bzw. online in einem Internetbrowser an jedem Arbeitsplatz angezeigt werden. Bevor im Laufe des Berufspraktikums im 7. Semester eine Geodatenbank am CVL erstellt worden ist wurden die Geodaten dezentral am Department abgespeichert. Die DA zielt darauf ab, ein Konzept zu entwerfen, welches für die Implementierung einer GDI verwendet werden kann. In dieser Arbeit wird der gegenwärtige Stand der Technik gezeigt und wie verschiedene Typen von Web Services, wie beispielsweise ein Web Map Service, die in der DA gestellten Aufgaben erfüllen können.
Evaluation of Geospatial Video Data Acquisition: A Case Study in New Orleans, Louisiana
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Michael Leitner (Louisiana State University; USA)/Gerald Gruber (FH Technikum Kärnten)
Betreuer: Michael Leitner (Louisiana State University; USA)/Gerald Gruber (FH Technikum Kärnten)
Kurzfassung/Abstract
This thesis evaluates the acquisition of geospatial video data using a Spatial Video Acquisition System (SVAS). This is an additional technique to GIS to improve the documentation and analysis of responsive activities in post-disaster environments. Moreover, it demonstrates the value in using this cutting edge geospatial technology in field data acquisition which enhances sustainable spatial-temporal decision making. Basically, a SVAS consists of digital video cameras which are linked via a "black box" to a Global Positioning System (GPS) receiver. Thus, the recorded digital video has a spatial reference. Furthermore, a vehicle equipped with a SVAS allows time efficient acquisition of spatial video data in an Area of Interest (AoI) without gaps from an on-site perspective. Research was performed in New Orleans, Louisiana, as part of the mandatory internship at the Louisiana State University (LSU) in Baton Rouge.
This thesis evaluates the acquisition of geospatial video data using a Spatial Video Acquisition System (SVAS). This is an additional technique to GIS to improve the documentation and analysis of responsive activities in post-disaster environments. Moreover, it demonstrates the value in using this cutting edge geospatial technology in field data acquisition which enhances sustainable spatial-temporal decision making. Basically, a SVAS consists of digital video cameras which are linked via a "black box" to a Global Positioning System (GPS) receiver. Thus, the recorded digital video has a spatial reference. Furthermore, a vehicle equipped with a SVAS allows time efficient acquisition of spatial video data in an Area of Interest (AoI) without gaps from an on-site perspective. Research was performed in New Orleans, Louisiana, as part of the mandatory internship at the Louisiana State University (LSU) in Baton Rouge.
Gravity Field Processing based on GOCE Orbit Data
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2008
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Kurzfassung/Abstract
Die Kenntnis über das Schwerefeld der Erde bildet die Basis für verschiedene Forschungsgebiete, wie Ozeanographie, Geophysik, Meeresspiegeländerung und Klimaveränderung. Die Satellitenmission GOCE (Gravity Field and steady-state Ocean Circulation Explorer) hat die herausfordernde Aufgabe, das Schwerefeld mit bisher unerreichter Genauigkeit mittels modernster Beobachtungstechnologien zu kartieren. Ziel dieser Masterarbeit ist die Prozessierung der Orbitdaten basierend auf dem Energieintegralansatz, um die langwellige Struktur des Schwerefeldes zu bestimmen. Die Geschwindigkeit des Satelliten ist die grundlegende Größe für die Prozessierung, die anhand von numerischen Differenziationsverfahren aus den Satellitenpositionen abgeleitet wird. Der erste praktische Teil dieser Arbeit stellt zwei Differenziationsmethoden vor, vergleicht und bewertet diese anhand der resultierenden Erdschwerefeldmodelle. Die Ergebnisse zeigen, dass durch entsprechende Parametrisierung des Differenziators das Signalrauschen unterdrückt werden kann, ohne den Signalinhalt abzuschneiden. Der GOCE-Orbit wird mittels kinematischer Bahnbestimmungsmethoden berechnet. Kinematische Orbits werden rein geometrisch ohne Verwendung jeglicher Schwerefeld-Vorinformation ermittelt. Im zweiten Teil dieser Arbeit werden verschiedene highly reduced-dynamic (HRD) Orbits untersucht, welche, anders als bei kinematischen Orbits, diverse Kräftemodelle in die Orbitbestimmung mit einbeziehen. Der Vorteil dieser Orbits ist, dass die Geschwindigkeiten Teil der Lösung sind und somit nicht mehr durch Differenziation abgeleitet werden müssen. Des Weiteren weisen HRD Orbits ein besseres Fehlerverhalten auf. Nachteilig ist, dass durch die Zufuhr von Vorinformationen kein unabhängiges Ergebnis erzielt werden kann. Das Endprodukt der Prozessierungskette besteht aus dem Schweremodell, repräsentiert durch sphärische harmonische Koeffizienten, und der zugehörigen Fehlerbeschreibung. Das dritte Thema dieser Arbeit beschäftigt sich mit der Kovarianzfortpflanzung von breitengrad-abhängigen Orbitfehlern. Die Untersuchungen zeigen, dass durch eine konsistente Fehlerfortpflanzung im Zuge der Ausgleichung zwar keine Verbesserung der Koeffizientenlösung, aber eine korrekte Beschreibung der Koeffizientenfehler erzielt werden kann.
Die Kenntnis über das Schwerefeld der Erde bildet die Basis für verschiedene Forschungsgebiete, wie Ozeanographie, Geophysik, Meeresspiegeländerung und Klimaveränderung. Die Satellitenmission GOCE (Gravity Field and steady-state Ocean Circulation Explorer) hat die herausfordernde Aufgabe, das Schwerefeld mit bisher unerreichter Genauigkeit mittels modernster Beobachtungstechnologien zu kartieren. Ziel dieser Masterarbeit ist die Prozessierung der Orbitdaten basierend auf dem Energieintegralansatz, um die langwellige Struktur des Schwerefeldes zu bestimmen. Die Geschwindigkeit des Satelliten ist die grundlegende Größe für die Prozessierung, die anhand von numerischen Differenziationsverfahren aus den Satellitenpositionen abgeleitet wird. Der erste praktische Teil dieser Arbeit stellt zwei Differenziationsmethoden vor, vergleicht und bewertet diese anhand der resultierenden Erdschwerefeldmodelle. Die Ergebnisse zeigen, dass durch entsprechende Parametrisierung des Differenziators das Signalrauschen unterdrückt werden kann, ohne den Signalinhalt abzuschneiden. Der GOCE-Orbit wird mittels kinematischer Bahnbestimmungsmethoden berechnet. Kinematische Orbits werden rein geometrisch ohne Verwendung jeglicher Schwerefeld-Vorinformation ermittelt. Im zweiten Teil dieser Arbeit werden verschiedene highly reduced-dynamic (HRD) Orbits untersucht, welche, anders als bei kinematischen Orbits, diverse Kräftemodelle in die Orbitbestimmung mit einbeziehen. Der Vorteil dieser Orbits ist, dass die Geschwindigkeiten Teil der Lösung sind und somit nicht mehr durch Differenziation abgeleitet werden müssen. Des Weiteren weisen HRD Orbits ein besseres Fehlerverhalten auf. Nachteilig ist, dass durch die Zufuhr von Vorinformationen kein unabhängiges Ergebnis erzielt werden kann. Das Endprodukt der Prozessierungskette besteht aus dem Schweremodell, repräsentiert durch sphärische harmonische Koeffizienten, und der zugehörigen Fehlerbeschreibung. Das dritte Thema dieser Arbeit beschäftigt sich mit der Kovarianzfortpflanzung von breitengrad-abhängigen Orbitfehlern. Die Untersuchungen zeigen, dass durch eine konsistente Fehlerfortpflanzung im Zuge der Ausgleichung zwar keine Verbesserung der Koeffizientenlösung, aber eine korrekte Beschreibung der Koeffizientenfehler erzielt werden kann.
Zum Einsatz von Low-Cost GPS-Empfängern für kontinuierliches Monitoring eines Rutschhanges
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2007
Betreuer: Univ.-Doz.. Dr. Andreas Wieser
Betreuer: Univ.-Doz.. Dr. Andreas Wieser
Kurzfassung/Abstract
Aufgrund des hohen Genauigkeitspotentials und der Wetterunabhängigkeit eignet sich GPS, bei entsprechender Topoographie, besonders gut für kontinuierliches Monitoring von Rutschhängen. Um die Kosten von Überwachungsstationen zu senken und auch die Besetzung gefährdeter Positionen zu ermöglichen, erscheint der Einsatz von Low-Cost (LC) Empfängern besonders interessant. Solche Empfänger werden vorwiegend für den Navigations- und Freizeitmarkt entwickelt, wo primär die Pseudostreckenmessung zur Positionierung Verwendung findet. In dieser Arbeit wird untersucht, ob bestimmte LC Empfänger (u-blox AEK-4T), die auch Trägerphasendaten ausgeben, in einem geodätischen GPS-Überwachungssystem nutzbar sind. Die Analyse der Testmessungen von zwei mehrtägigen Sessionen am Rutschhang Gradenbach zeigt, dass die AEK-4T Empfänger für ein derartiges Monitoring ebenso geeignet sind, wie geodätische Einfrequenzempfänger. Gewisse Einschränkungen ergeben sich durch einen prädizierbaren, systematsichen Effekt, der etwa einmal pro Stunde für 75 Sekunden auftritt. Die Präzision der im 3-Sekunden Takt geschätzten Koordinaten beträgt 2mm in der Lage und 3mm in der Höhe.
Aufgrund des hohen Genauigkeitspotentials und der Wetterunabhängigkeit eignet sich GPS, bei entsprechender Topoographie, besonders gut für kontinuierliches Monitoring von Rutschhängen. Um die Kosten von Überwachungsstationen zu senken und auch die Besetzung gefährdeter Positionen zu ermöglichen, erscheint der Einsatz von Low-Cost (LC) Empfängern besonders interessant. Solche Empfänger werden vorwiegend für den Navigations- und Freizeitmarkt entwickelt, wo primär die Pseudostreckenmessung zur Positionierung Verwendung findet. In dieser Arbeit wird untersucht, ob bestimmte LC Empfänger (u-blox AEK-4T), die auch Trägerphasendaten ausgeben, in einem geodätischen GPS-Überwachungssystem nutzbar sind. Die Analyse der Testmessungen von zwei mehrtägigen Sessionen am Rutschhang Gradenbach zeigt, dass die AEK-4T Empfänger für ein derartiges Monitoring ebenso geeignet sind, wie geodätische Einfrequenzempfänger. Gewisse Einschränkungen ergeben sich durch einen prädizierbaren, systematsichen Effekt, der etwa einmal pro Stunde für 75 Sekunden auftritt. Die Präzision der im 3-Sekunden Takt geschätzten Koordinaten beträgt 2mm in der Lage und 3mm in der Höhe.
Hierarchische und objektbasierte Datenmodelle für die Landnutzungskartierung
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2007
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Kurzfassung/Abstract
Informationen über die Landbedeckung und -nutzung sind Grundinformationen für verschiedenste Anwendungsbereiche. Als Datengrundlage dieser Informationen dienen unter anderem Fernerkundungsdaten, die mittels Bildinterpretation ausgewertet werden.
Die vorliegende Masterarbeit befasst sich mit Normen und verschiedenen Nomenklaturen für die Bildinterpretation, nach denen sich die Benennung von Objekten im Bereich der Landbedeckung und -nutzung richten soll. Im ersten Schritt wird eine in Europa verbreitete hierarchische Nomenklatur, namens Corine Landcover (CLC) weiterentwickelt und ein vierter Level für Österreich erstellt. Um die Beziehung zwischen Objekten in der Natur und deren Erscheinung in den Fernerkundungsdaten zu schaffen, wird ein Interpretationsschlüssel in Form einer Datenbank erstellt, mit Bildbeispielen für verschiedene Sensoren befüllt und deren Sinnhaftigkeit diskutiert. Als Pendant zu den verbreiteten hierarchischen Nomenklaturen wird der innovative objektbasierte Ansatz aufgegriffen und der Corine Nomenklatur gegenübergestellt. Er stellt eine neue Möglichkeit dar, um Informationen über Landbedeckung und -nutzung effektiv zu speichern. In Rahmen der Arbeit wird ein objektbasiertes Konzept für städtische und landwirtschaftliche Gebiete und aufgestellt und ein Interpretationsschlüssel in einer weiteren Datenbank entwickelt. Schließlich werden hierarchische und objektbasierte Datenmodelle miteinander verglichen und unterschiedliche Abfragemöglichkeiten diskutiert.
Informationen über die Landbedeckung und -nutzung sind Grundinformationen für verschiedenste Anwendungsbereiche. Als Datengrundlage dieser Informationen dienen unter anderem Fernerkundungsdaten, die mittels Bildinterpretation ausgewertet werden.
Die vorliegende Masterarbeit befasst sich mit Normen und verschiedenen Nomenklaturen für die Bildinterpretation, nach denen sich die Benennung von Objekten im Bereich der Landbedeckung und -nutzung richten soll. Im ersten Schritt wird eine in Europa verbreitete hierarchische Nomenklatur, namens Corine Landcover (CLC) weiterentwickelt und ein vierter Level für Österreich erstellt. Um die Beziehung zwischen Objekten in der Natur und deren Erscheinung in den Fernerkundungsdaten zu schaffen, wird ein Interpretationsschlüssel in Form einer Datenbank erstellt, mit Bildbeispielen für verschiedene Sensoren befüllt und deren Sinnhaftigkeit diskutiert. Als Pendant zu den verbreiteten hierarchischen Nomenklaturen wird der innovative objektbasierte Ansatz aufgegriffen und der Corine Nomenklatur gegenübergestellt. Er stellt eine neue Möglichkeit dar, um Informationen über Landbedeckung und -nutzung effektiv zu speichern. In Rahmen der Arbeit wird ein objektbasiertes Konzept für städtische und landwirtschaftliche Gebiete und aufgestellt und ein Interpretationsschlüssel in einer weiteren Datenbank entwickelt. Schließlich werden hierarchische und objektbasierte Datenmodelle miteinander verglichen und unterschiedliche Abfragemöglichkeiten diskutiert.
Entwicklung eines Spatial Decision Support Systems zur ökologischen Bewertung von Fließgewässern
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gerald Gruber (FH Technikum Kärnten), Karoline Angermann (Umweltbüro Klagenfurt)
Betreuer: Gerald Gruber (FH Technikum Kärnten), Karoline Angermann (Umweltbüro Klagenfurt)
Kurzfassung/Abstract
Ziel der Diplomarbeit ist die Entwicklung einer Erweiterung von RiverSmart. RiverSmart ist ein Programm zur ökologischen Bewertung von Fließgewässern und wurde vom Umweltbüro Klagenfurt entwickelt. Die Erweiterung ermöglicht die automatische Einteilung von Daten der Kartierung hydromorphologischer Belastungen oder benutzerdefinierter Daten in vordefinierte Abschnitte. Eine weitere Zielsetzung war die Erstellung einer Datenbank, um die Verwendung der Daten der Kartierung hydromorphologischer Belastungen zu ermöglichen. Durch Abfragen werden die Daten der Kartierung in eine Form gebracht, welche von RiverSmart verwendet werden kann.
Grundlage für die Diplomarbeit waren das Programm RiverSmart und die Kartierung hydromorphologischer Belastungen in Kärnten. Um die Daten der Kartierung verwenden zu können, mussten diese in eine Form gebracht werden, die von RiverSmart verwendet werden kann. Dies geschieht durch eine Transoformation in der Access Datenbank. Dabei werden die Daten der Kartierung durch Abfragen auf, für RiverSmart passende, Eingriffe umgeschrieben. Die Erweiterung für ArcGIS wurde in Excel erstellt. Es erfolgt eine automatische Einteilung der Daten in vordefinierte Abschnitte basierend auf ihren Flusskilometern. Die Ergebnisse der Bewertung der einzelnen Abschnitte mit RiverSmart werden in einer Tabelle aufgelistet. Diese Tabelle kann vom User ins ArcGIS exportiert werden. Durch vordefinierte Layoutfiles werden diese Ergebnisse visuell aufbereitet.
Das Ergebniss der Diplomarbeit bildet die Access Datenbank und die Erweiterung für RiverSmart. Mit Testdaten über den Granitzbach wurden Test mit der Erweiterung und der Datenbank durchgeführt. Die Belastungen der Kartierung wurden in Eingriffe transformiert und anschließend mit der Erweiterung in 1km große Abschnitte eingeteilt. Die hydromorphologischen, chemisch-physikalischen sowie fischökologischen Ergebnisse der Bewertung wurden in einer Tabelle aufgelistet und in ArcGIS visualisiert. Weiters wurde ein fiktives Maßnahmenszenario erstellt und bewertet um den grafischen Unterschied des Ist-Zustandes und eines Maßnahmenszenarios in ArcGIS darstellen zu können. Da angenommen wurde, dass alle Querbauwerke am Granitzbach mit Fischaufstiegshilfen ausgestattet wurden, kann der größte Unterschied bei den fischökologischen Ergebnissen festgestellt werden.
Die Erweiterung ist in der Lage, Daten basierend auf ihren Flusskilometern in vordefinierte Abschnitte einzuteilen. Weiters können durch die Datenbank die Daten der Kartierung hydromorphologischer Belastungen als auch benutzerdefinierte Daten verwendet werden. In zukünftigen Arbeiten können noch Änderungen vorgenommen werden. Dazu gehört vor allem die autmatische Bereinigung von Überlappungen. Bei der Transformation hydromorphologischer Daten werden mehrere Belastungen zu einem Eingriff transformiert. Dabei entstehen sich überlappende Einträge bei den Flusskilometern. Diese Überlappungen sollten durch einen Code nach der Transformation automatisch korrigiert werden. Eine wichtige Verbesserungsmöglichkeit ist die Verknüpfung mit ArcGIS. Der User könnte das gesamte Gewässernetz dargestellt bekommen und wählt mittels Auswahlfenster jenen Bereich aus, den er bearbeiten möchte. Daraufhin öffnet sich jener Teil der Datenbank, der zu dem ausgewählten Abschnitt gehört. Daraufhin könnten in der Datenbank Eingaben von Daten bzw. Maßnahmenszenarien vorgenommen werden.
Ziel der Diplomarbeit ist die Entwicklung einer Erweiterung von RiverSmart. RiverSmart ist ein Programm zur ökologischen Bewertung von Fließgewässern und wurde vom Umweltbüro Klagenfurt entwickelt. Die Erweiterung ermöglicht die automatische Einteilung von Daten der Kartierung hydromorphologischer Belastungen oder benutzerdefinierter Daten in vordefinierte Abschnitte. Eine weitere Zielsetzung war die Erstellung einer Datenbank, um die Verwendung der Daten der Kartierung hydromorphologischer Belastungen zu ermöglichen. Durch Abfragen werden die Daten der Kartierung in eine Form gebracht, welche von RiverSmart verwendet werden kann.
Grundlage für die Diplomarbeit waren das Programm RiverSmart und die Kartierung hydromorphologischer Belastungen in Kärnten. Um die Daten der Kartierung verwenden zu können, mussten diese in eine Form gebracht werden, die von RiverSmart verwendet werden kann. Dies geschieht durch eine Transoformation in der Access Datenbank. Dabei werden die Daten der Kartierung durch Abfragen auf, für RiverSmart passende, Eingriffe umgeschrieben. Die Erweiterung für ArcGIS wurde in Excel erstellt. Es erfolgt eine automatische Einteilung der Daten in vordefinierte Abschnitte basierend auf ihren Flusskilometern. Die Ergebnisse der Bewertung der einzelnen Abschnitte mit RiverSmart werden in einer Tabelle aufgelistet. Diese Tabelle kann vom User ins ArcGIS exportiert werden. Durch vordefinierte Layoutfiles werden diese Ergebnisse visuell aufbereitet.
Das Ergebniss der Diplomarbeit bildet die Access Datenbank und die Erweiterung für RiverSmart. Mit Testdaten über den Granitzbach wurden Test mit der Erweiterung und der Datenbank durchgeführt. Die Belastungen der Kartierung wurden in Eingriffe transformiert und anschließend mit der Erweiterung in 1km große Abschnitte eingeteilt. Die hydromorphologischen, chemisch-physikalischen sowie fischökologischen Ergebnisse der Bewertung wurden in einer Tabelle aufgelistet und in ArcGIS visualisiert. Weiters wurde ein fiktives Maßnahmenszenario erstellt und bewertet um den grafischen Unterschied des Ist-Zustandes und eines Maßnahmenszenarios in ArcGIS darstellen zu können. Da angenommen wurde, dass alle Querbauwerke am Granitzbach mit Fischaufstiegshilfen ausgestattet wurden, kann der größte Unterschied bei den fischökologischen Ergebnissen festgestellt werden.
Die Erweiterung ist in der Lage, Daten basierend auf ihren Flusskilometern in vordefinierte Abschnitte einzuteilen. Weiters können durch die Datenbank die Daten der Kartierung hydromorphologischer Belastungen als auch benutzerdefinierte Daten verwendet werden. In zukünftigen Arbeiten können noch Änderungen vorgenommen werden. Dazu gehört vor allem die autmatische Bereinigung von Überlappungen. Bei der Transformation hydromorphologischer Daten werden mehrere Belastungen zu einem Eingriff transformiert. Dabei entstehen sich überlappende Einträge bei den Flusskilometern. Diese Überlappungen sollten durch einen Code nach der Transformation automatisch korrigiert werden. Eine wichtige Verbesserungsmöglichkeit ist die Verknüpfung mit ArcGIS. Der User könnte das gesamte Gewässernetz dargestellt bekommen und wählt mittels Auswahlfenster jenen Bereich aus, den er bearbeiten möchte. Daraufhin öffnet sich jener Teil der Datenbank, der zu dem ausgewählten Abschnitt gehört. Daraufhin könnten in der Datenbank Eingaben von Daten bzw. Maßnahmenszenarien vorgenommen werden.
Berücksichtigung der pragmatischen Dimension der Kartensemiotik bei der Gestaltung mediumspezifischer Karten für Routenplaner
Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, Technische Universität Wien, 2008
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Wegfindungsprobleme können mit Hilfe des Internets ganz einfach gelöst werden. Mehrere so genannte Routenplanersoftwares bieten online kostenfrei an, den besten Weg zwischen zwei beliebigen Orten finden zu können. Das Ergebnis, der berechnete Weg, wird zumeist auf einer eigens von der Software generierten Karte angezeichnet und ev. als Papierkarte gedruckt.
Bildschirm und Papier, als Ausgabemedien, haben deutlich andere Eigenschaften bezüglich ihrer Auflösung, möglicher Informationstiefe und Anzeigefläche. Die Veröffentlichung von ein und derselben Information auf unterschiedlichen Medien mit jeweils spezifischen Eigenschaften wird Cross Media Publishing genannt.
In der vorliegenden Arbeit wird eine mögliche Variante vorgestellt, wie eine an Ausgabe auf einem Blatt Papier angepasste selbst ausdruckbare Routenplaner-Straßenkarte aussehen kann. Diese wird im Vergleich zur herkömmlichen Karte anhand von 10 Testpersonen hinsichtlich der Auswirkungen auf die pragmatische Dimension der Kartosemiotik getestet. In dieser dritten Dimension des Wahrnehmungsprozesses beim Kartenlesen werden die entnommenen Informationen interpretiert und aufgrund dessen Handlungen gesetzt oder Entscheidungen getroffen. Im Speziellen wird neben der Untersuchung der subjektiven Eindrücke jeder Testperson besonderes Augenmerk darauf gelegt, die bei der Wegfindung entstandenen mentalen Modelle jedes Probanden objektiv zu erfassen und miteinander zu vergleichen.
Wegfindungsprobleme können mit Hilfe des Internets ganz einfach gelöst werden. Mehrere so genannte Routenplanersoftwares bieten online kostenfrei an, den besten Weg zwischen zwei beliebigen Orten finden zu können. Das Ergebnis, der berechnete Weg, wird zumeist auf einer eigens von der Software generierten Karte angezeichnet und ev. als Papierkarte gedruckt.
Bildschirm und Papier, als Ausgabemedien, haben deutlich andere Eigenschaften bezüglich ihrer Auflösung, möglicher Informationstiefe und Anzeigefläche. Die Veröffentlichung von ein und derselben Information auf unterschiedlichen Medien mit jeweils spezifischen Eigenschaften wird Cross Media Publishing genannt.
In der vorliegenden Arbeit wird eine mögliche Variante vorgestellt, wie eine an Ausgabe auf einem Blatt Papier angepasste selbst ausdruckbare Routenplaner-Straßenkarte aussehen kann. Diese wird im Vergleich zur herkömmlichen Karte anhand von 10 Testpersonen hinsichtlich der Auswirkungen auf die pragmatische Dimension der Kartosemiotik getestet. In dieser dritten Dimension des Wahrnehmungsprozesses beim Kartenlesen werden die entnommenen Informationen interpretiert und aufgrund dessen Handlungen gesetzt oder Entscheidungen getroffen. Im Speziellen wird neben der Untersuchung der subjektiven Eindrücke jeder Testperson besonderes Augenmerk darauf gelegt, die bei der Wegfindung entstandenen mentalen Modelle jedes Probanden objektiv zu erfassen und miteinander zu vergleichen.
Verfeinerung von digitalen Höhenmodellen zur Simulation von Lawinen
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gernot Paulus (FH Technikum Kärnten), Rudolf Sailer (BFW, Institut für Naturgefahren, Abteilung Schnee und Lawinen)
Betreuer: Gernot Paulus (FH Technikum Kärnten), Rudolf Sailer (BFW, Institut für Naturgefahren, Abteilung Schnee und Lawinen)
Kurzfassung/Abstract
Ziel dieser Diplomarbeit ist die Erstellung von einem verfeinerten Höhenmodell für die Simulation von Lawinen im Rahmen des EU-Projektes GALAHAD mit GIS-gestützten Methoden. Die Lawinensimulationen werden mit dem am Institut für Naturgefahren (Abteilung Schnee und Lawinen) in Innsbruck verwendeten Simulationsmodell SamosAT durchgeführt. Für die bisherigen Simulationsversuche im Testgebiet Wattener Lizum wird das Digitale Höhenmodell (DHM) des Bundesamtes für Eich- und Vermessungswesen (BEV) in einer Auflösung von 10 Metern verwendet.
Zur Verfeinerung des Höhenmodells werden Methoden der terrestrischen Vermessung verwendet. Neben der neuen Methode des Terrestrischen Laserscannens (TLS) und dem Global Positioning Systems (GPS) wird auch noch die geodätische Vermessung mittels einer Totalstation benutzt. Die Daten aus dem BEV-Höhenmodell und den drei Vermessungsmethoden werden zu einem Höhenmodell kombiniert, das in drei Auflösungen (2m, 5m und 10m) zur Simulation von Lawinen verwendet wird. Zum Vergleich der DHM wird eine quantitative Geländeanalyse durchgeführt.
Als erstes Ergebnis liegt eine Darstellung der erstellten Höhenmodelle in 2D und 3D vor. Des Weiteren werden die Hillshade, Slope und Aspect Darstellung betrachtet. Die Genauigkeit der Höhenmodelle wird mittels im Lawinenhang verteilten Profilen überprüft und statistisch ausgewertet. Als letztes liegen die Ergebnisse der Lawinensimulation mit SamosAT vor. Hier werden die relevanten Parameter Spitzenschneehöhe, dynamischer Spitzendruck und Geschwindigkeit bezüglich der unterschiedlichen Höhenmodellauflösungen verglichen. Des Weiteren wird die Auswirkung der Höhenmodelle auf die Größe, das Volumen und die Masse der Anrissflächen veranschaulicht.
In dieser Diplomarbeit werden Methoden zur Verfeinerung von Digitalen Höhenmodellen zur Simulation mit dem Simulationsmodell SamosAT vorgestellt. Besonderes Augenmerk wird dabei auf die Methode des terrestrischen Laserscannens gelegt. Mit dieser Methode ist es möglich innerhalb kürzester Zeit von einem Lawinenhang, ohne ihn betreten zu müssen Höhendaten zu erhalten. Die GPS Methode bietet vor allem in unwegsamen Gebieten gute Möglichkeiten Geländehöhen zu messen. Die Messungen mit differentiellem GPS (Basisstation, Roverstation) ermöglicht Genauigkeiten im cm-Bereich. Mittels Totalstationsmessungen können punktuell Daten zur Überprüfung und Analyse der Qualität von Laserscandaten gewonnen werden. Weiters ist diese Methode am besten zur Messung von Referenzpunkten zur Georeferenzierung der Laserscandaten geeignet. Voraussetzung hierfür ist jedoch das Vorhandensein eines Triangulierungspunktes. Sonst sind nämlich lange Polygonzugsmessungen notwendig. Die so erstellten und verfeinerten Höhenmodelle werden für die Simulation mit SamosAT verwendet. Diese Software bietet die Möglichkeit lawinenrelevante Parameter zu jedem Zeitschritt der Lawine zu analysieren.
Ziel dieser Diplomarbeit ist die Erstellung von einem verfeinerten Höhenmodell für die Simulation von Lawinen im Rahmen des EU-Projektes GALAHAD mit GIS-gestützten Methoden. Die Lawinensimulationen werden mit dem am Institut für Naturgefahren (Abteilung Schnee und Lawinen) in Innsbruck verwendeten Simulationsmodell SamosAT durchgeführt. Für die bisherigen Simulationsversuche im Testgebiet Wattener Lizum wird das Digitale Höhenmodell (DHM) des Bundesamtes für Eich- und Vermessungswesen (BEV) in einer Auflösung von 10 Metern verwendet.
Zur Verfeinerung des Höhenmodells werden Methoden der terrestrischen Vermessung verwendet. Neben der neuen Methode des Terrestrischen Laserscannens (TLS) und dem Global Positioning Systems (GPS) wird auch noch die geodätische Vermessung mittels einer Totalstation benutzt. Die Daten aus dem BEV-Höhenmodell und den drei Vermessungsmethoden werden zu einem Höhenmodell kombiniert, das in drei Auflösungen (2m, 5m und 10m) zur Simulation von Lawinen verwendet wird. Zum Vergleich der DHM wird eine quantitative Geländeanalyse durchgeführt.
Als erstes Ergebnis liegt eine Darstellung der erstellten Höhenmodelle in 2D und 3D vor. Des Weiteren werden die Hillshade, Slope und Aspect Darstellung betrachtet. Die Genauigkeit der Höhenmodelle wird mittels im Lawinenhang verteilten Profilen überprüft und statistisch ausgewertet. Als letztes liegen die Ergebnisse der Lawinensimulation mit SamosAT vor. Hier werden die relevanten Parameter Spitzenschneehöhe, dynamischer Spitzendruck und Geschwindigkeit bezüglich der unterschiedlichen Höhenmodellauflösungen verglichen. Des Weiteren wird die Auswirkung der Höhenmodelle auf die Größe, das Volumen und die Masse der Anrissflächen veranschaulicht.
In dieser Diplomarbeit werden Methoden zur Verfeinerung von Digitalen Höhenmodellen zur Simulation mit dem Simulationsmodell SamosAT vorgestellt. Besonderes Augenmerk wird dabei auf die Methode des terrestrischen Laserscannens gelegt. Mit dieser Methode ist es möglich innerhalb kürzester Zeit von einem Lawinenhang, ohne ihn betreten zu müssen Höhendaten zu erhalten. Die GPS Methode bietet vor allem in unwegsamen Gebieten gute Möglichkeiten Geländehöhen zu messen. Die Messungen mit differentiellem GPS (Basisstation, Roverstation) ermöglicht Genauigkeiten im cm-Bereich. Mittels Totalstationsmessungen können punktuell Daten zur Überprüfung und Analyse der Qualität von Laserscandaten gewonnen werden. Weiters ist diese Methode am besten zur Messung von Referenzpunkten zur Georeferenzierung der Laserscandaten geeignet. Voraussetzung hierfür ist jedoch das Vorhandensein eines Triangulierungspunktes. Sonst sind nämlich lange Polygonzugsmessungen notwendig. Die so erstellten und verfeinerten Höhenmodelle werden für die Simulation mit SamosAT verwendet. Diese Software bietet die Möglichkeit lawinenrelevante Parameter zu jedem Zeitschritt der Lawine zu analysieren.
Entwicklung eines Softwarepakets zur Visualisierung von dreidimensionalen Massenverteilungen und Vorwärtsmodellierung von Schwerefeldern
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2007
Betreuer: Ao-.Univ.-Prof. Dr. Roland Pail
Betreuer: Ao-.Univ.-Prof. Dr. Roland Pail
Kurzfassung/Abstract
Diese Arbeit beschreibt die Entwicklung des Softwarepaketes GEOCOM, welches zur Visualisierung von dreidimensionalen Dichteverteilungen und Vorwärtsmodellierung von Schwerefeldern dient. Das entwickelte Softwarepaket ist für Anwendungen im Bereich der Geophysik und Geodäsie bestimmt und repräsentiert ein leistungsfähiges Programm für wissenschaftliche Anwendungen bezüglich der Vorwärtsmodellierung von Schwerefeldern. Die Softwareentwicklung basierte auf der höheren Programmiersprache MATLAB. Um eine effiziente Handhabung der zahlreichen Funktionen zu gewährleisten, wurde das Softwarepaket aus zahlreichen Benutzerschnittstellen (Interfaces) aufgebaut, welche interaktive Oberflächen zur Datenvisualisierung, Massenmodellierung und numerischen Schwereberechnung bereitstellen. Die Softwareanwendung zur Massenmodellierung ermöglicht die Eingabe von topographischen und isostatischen Modellen, die schichtweise vom Anwender beliebig zusammengestellt werden können. Die Unterteilung des Massenmodells in zahlreiche diskrete Elemente (Quader) ermöglicht die Verwendung einer analytischen Lösung zur Berechnung der gravitativen Anziehung jedes einzelnen Würfelelementes. Mehrere numerische Fallbeispiele, welche topographische und topographisch-isostatische Massenmodelle vorstellen, zeigen mögliche Softwareanwendungen unter Verwendung des Softwarepakets GEOCOM.
Diese Arbeit beschreibt die Entwicklung des Softwarepaketes GEOCOM, welches zur Visualisierung von dreidimensionalen Dichteverteilungen und Vorwärtsmodellierung von Schwerefeldern dient. Das entwickelte Softwarepaket ist für Anwendungen im Bereich der Geophysik und Geodäsie bestimmt und repräsentiert ein leistungsfähiges Programm für wissenschaftliche Anwendungen bezüglich der Vorwärtsmodellierung von Schwerefeldern. Die Softwareentwicklung basierte auf der höheren Programmiersprache MATLAB. Um eine effiziente Handhabung der zahlreichen Funktionen zu gewährleisten, wurde das Softwarepaket aus zahlreichen Benutzerschnittstellen (Interfaces) aufgebaut, welche interaktive Oberflächen zur Datenvisualisierung, Massenmodellierung und numerischen Schwereberechnung bereitstellen. Die Softwareanwendung zur Massenmodellierung ermöglicht die Eingabe von topographischen und isostatischen Modellen, die schichtweise vom Anwender beliebig zusammengestellt werden können. Die Unterteilung des Massenmodells in zahlreiche diskrete Elemente (Quader) ermöglicht die Verwendung einer analytischen Lösung zur Berechnung der gravitativen Anziehung jedes einzelnen Würfelelementes. Mehrere numerische Fallbeispiele, welche topographische und topographisch-isostatische Massenmodelle vorstellen, zeigen mögliche Softwareanwendungen unter Verwendung des Softwarepakets GEOCOM.
Development of a distributed Service Framework for Location-based Decision Support
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2008
Betreuer: Andreas Wytzisk (con.terra GmbH), Gernot Paulus (FH Technikum Kärnten)
Betreuer: Andreas Wytzisk (con.terra GmbH), Gernot Paulus (FH Technikum Kärnten)
Kurzfassung/Abstract
Entwicklungen im Bereich des mobilen Internets und der Bedienbarkeit von mobilen Geräten führen zu neuen Möglichkeiten für standortbezogene Dienste. Diese Arbeit schlägt die Integration multi-kriterieller Analyse für mobile Standortdienste vor. Menschen treffen laufend Entscheidungen. Die meisten dieser Entscheidungen stehen mit einer definierten Zeit und der aktuellen Umgebung im Zusammenhang. Der Mensch tendiert außerdem dazu, Entscheidungen unmittelbar beim Auftreten und in räumlicher Nähe des Problems zu treffen. In solchen Fällen haben mobile räumliche Entscheidungsunterstützungssysteme einen entscheidenden Vorteil gegenüber traditionellen Systemen. Standortbezogende Entscheidungsdienste unterstützen Menschen in ihren Entscheidungen während sie sich durch eine physikalische Umgebung bewegen. Solche Systeme nutzen explizit Entscheidungsunterstützungsmethoden um Alternativen, welche auf Vorzüge des Benutzers, eine Kombination aus mehreren Kriterien und die aktuelle Position eingehen, vorzuschlagen. Die Arbeit schließt ein konzeptionelles Rahmenwerk für die Implementierung standortbezogender Dienste ein. Geographische Information ist eine bedeutende Ressource zur räumlichen Entscheidungsfindung. Entwicklungen betreffend Web 2.0 beeinflussen die Geoinformationsgesellschaft bedeutend. Wegen benutzergenerieten Inhalten und freiwillig erstellter geographischer Information stehen wir einer nie dagewesener Fülle an verfügbarer und zugänglicher Information gegenüber. Dieses Potential ist durchaus für Entscheidungsfindungen nützlich. Die vorgestellte Prototyp Anwendung kombiniert benutzergenerierten Inhalt mit Expertendaten um passende Standorte zu bewerten. Der Benutzer des Systems hat die Möglichkeit verschiedene Kriterien am mobilen Endgerät zu beurteilen um personalisierte Vorschläge zu Entscheidungsalternativen zu erhalten. In diesem Fall erhöht die Integration von entscheidungsunterstützenden Methoden die Personalisierung von standortbezogenen Diensten.
Entwicklungen im Bereich des mobilen Internets und der Bedienbarkeit von mobilen Geräten führen zu neuen Möglichkeiten für standortbezogene Dienste. Diese Arbeit schlägt die Integration multi-kriterieller Analyse für mobile Standortdienste vor. Menschen treffen laufend Entscheidungen. Die meisten dieser Entscheidungen stehen mit einer definierten Zeit und der aktuellen Umgebung im Zusammenhang. Der Mensch tendiert außerdem dazu, Entscheidungen unmittelbar beim Auftreten und in räumlicher Nähe des Problems zu treffen. In solchen Fällen haben mobile räumliche Entscheidungsunterstützungssysteme einen entscheidenden Vorteil gegenüber traditionellen Systemen. Standortbezogende Entscheidungsdienste unterstützen Menschen in ihren Entscheidungen während sie sich durch eine physikalische Umgebung bewegen. Solche Systeme nutzen explizit Entscheidungsunterstützungsmethoden um Alternativen, welche auf Vorzüge des Benutzers, eine Kombination aus mehreren Kriterien und die aktuelle Position eingehen, vorzuschlagen. Die Arbeit schließt ein konzeptionelles Rahmenwerk für die Implementierung standortbezogender Dienste ein. Geographische Information ist eine bedeutende Ressource zur räumlichen Entscheidungsfindung. Entwicklungen betreffend Web 2.0 beeinflussen die Geoinformationsgesellschaft bedeutend. Wegen benutzergenerieten Inhalten und freiwillig erstellter geographischer Information stehen wir einer nie dagewesener Fülle an verfügbarer und zugänglicher Information gegenüber. Dieses Potential ist durchaus für Entscheidungsfindungen nützlich. Die vorgestellte Prototyp Anwendung kombiniert benutzergenerierten Inhalt mit Expertendaten um passende Standorte zu bewerten. Der Benutzer des Systems hat die Möglichkeit verschiedene Kriterien am mobilen Endgerät zu beurteilen um personalisierte Vorschläge zu Entscheidungsalternativen zu erhalten. In diesem Fall erhöht die Integration von entscheidungsunterstützenden Methoden die Personalisierung von standortbezogenen Diensten.
Präzisionsbestimmung des Prüffeldes "Dach, Steyrergasse 30" zur Überprüfung von geodätischen Instrumenten
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2007
Betreuer: Dr. Helmut Woschitz
Betreuer: Dr. Helmut Woschitz
Kurzfassung/Abstract
In der Masterarbeit wurde das Prüffeld am Dach des Geodäsiegebäudes mittels terrestrischen Messungen in Lage und Höhe hochpräzise bestimmt. Die geforderte Präzision (1 Sigma) für die Lage und Höhe der Pfeiler am Dach war mit <0,2 mm festgelegt und konnte erreicht werden. Für die bis zu 210 m entfernten Zielpunkte sollte eine, mit vertretbaren Mitteln erreichbare, ähnliche Präzision erreicht werden, was sich geometriebedingt nicht ganz erreichen ließ. Die erreichten Präzisionen (1 Sigma) waren <0,5 mm für die durch die Winkelmessung bestimmten Komponenten und <0,2 mm für die durch die Distanzmessung bestimmten Komponenten. Um diese Präzisionen erreichen zu können, waren vor der eigentlichen Netzmessung zahlreiche Vorarbeiten notwendig. Einerseits musste das Netzdesign durch Simulationsrechnung optimiert werden, andererseits musste das entsprechende Instrumentarium gewählt und sowohl im Messlabor als auch im Feld auf seine Präzision hin untersucht werden.
Bestimmt wurden u.a. die bei verschiedenen Prismen auftretenden zyklischen Fehler, Nullpunktskorrekturen und Exzentrizitäten. Für die Höhenbestimmung kam ein innovatives Verfahren zur Anwendung. Mittels vertikal gestelltem Tachymeter wurde unter Verwendung verschiedene Adapter die Höhe auf das Dach übertragen. Mit der Neubestimmung der Koordinaten des Prüffeldes ist ein wichtiger Schritt Richtung Operabilität getan. Wichtig wird es jedoch noch sein, die saisonalen Einflüsse der Gebäudedeformationen näher zu untersuchen.
In der Masterarbeit wurde das Prüffeld am Dach des Geodäsiegebäudes mittels terrestrischen Messungen in Lage und Höhe hochpräzise bestimmt. Die geforderte Präzision (1 Sigma) für die Lage und Höhe der Pfeiler am Dach war mit <0,2 mm festgelegt und konnte erreicht werden. Für die bis zu 210 m entfernten Zielpunkte sollte eine, mit vertretbaren Mitteln erreichbare, ähnliche Präzision erreicht werden, was sich geometriebedingt nicht ganz erreichen ließ. Die erreichten Präzisionen (1 Sigma) waren <0,5 mm für die durch die Winkelmessung bestimmten Komponenten und <0,2 mm für die durch die Distanzmessung bestimmten Komponenten. Um diese Präzisionen erreichen zu können, waren vor der eigentlichen Netzmessung zahlreiche Vorarbeiten notwendig. Einerseits musste das Netzdesign durch Simulationsrechnung optimiert werden, andererseits musste das entsprechende Instrumentarium gewählt und sowohl im Messlabor als auch im Feld auf seine Präzision hin untersucht werden.
Bestimmt wurden u.a. die bei verschiedenen Prismen auftretenden zyklischen Fehler, Nullpunktskorrekturen und Exzentrizitäten. Für die Höhenbestimmung kam ein innovatives Verfahren zur Anwendung. Mittels vertikal gestelltem Tachymeter wurde unter Verwendung verschiedene Adapter die Höhe auf das Dach übertragen. Mit der Neubestimmung der Koordinaten des Prüffeldes ist ein wichtiger Schritt Richtung Operabilität getan. Wichtig wird es jedoch noch sein, die saisonalen Einflüsse der Gebäudedeformationen näher zu untersuchen.
Entwicklung eines feldtauglichen Testverfahrens zur Überprüfung hochgenauer Tachymeter
Institut für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2008
Begutachter: o.Univ.-Prof. Dr.Ing. Kahmen Heribert
Betreuer: Dipl.-Ing. Dr.techn. Reiterer Alexander
Begutachter: o.Univ.-Prof. Dr.Ing. Kahmen Heribert
Betreuer: Dipl.-Ing. Dr.techn. Reiterer Alexander
Kurzfassung/Abstract
In einem sich ständig erweiternden Tätigkeitsfeld für Tachymeter und der damit verbundenen Mehrbelastung durch ungünstige Einsatzbedingungen ist nicht immer sichergestellt, dass die Messgeräte die spezifizierten Gerätegenauigkeiten einwandfrei erbringen.
Aufgrund dieser Tatsache wurde in dieser Diplomarbeit versucht, ein Testverfahren zu entwickeln, das die Testung von Tachymetern auf ihre Gerätegenauigkeit zwischen zwei Messaufträgen erlaubt.
Da in der Praxis eine Neukalibrierung nur bei akutem Verdacht auf Unregelmäßigkeiten beziehungsweise routinemäßig in bestimmten Intervallen durchgeführt wird, ist es für den Benutzer durchaus interessant, zwischen den Wartungsterminen Informationen über den aktuellen Zustand der Geräte zu erhalten. Vermessungsingenieure oder Vermessungstechniker sollen ein gut handhabbares und schnell durchzuführendes Testverfahren in die Hand bekommen, das über die aktuellen Gerätespezifikationen Auskunft gibt. Auf Basis der erhaltenen Testergebnisse kann entschieden werden, ob eine sofortige Neukalibrierung durch den Gerätehersteller vorgenommen werden muss.
Die Diplomarbeit gliedert sich in einen Theorie- und einen Praxisteil. Der erste Abschnitt befasst sich mit den grundlegenden Anforderungen an das Testverfahren, deren theoretischen Grundlagen und Realisierung sowie mit dem aktuellen Stand der Lasertrackertechnik. Der zweite Teil umfasst die praktische Umsetzung des Testverfahrens und bewertet die erhaltenen Ergebnisse.
Abschließend werden die aus den Messungen erhaltenen Erkenntnisse diskutiert sowie daraus abgeleitete Verbesserungsvorschläge das Testverfahren betreffend angeführt.
In einem sich ständig erweiternden Tätigkeitsfeld für Tachymeter und der damit verbundenen Mehrbelastung durch ungünstige Einsatzbedingungen ist nicht immer sichergestellt, dass die Messgeräte die spezifizierten Gerätegenauigkeiten einwandfrei erbringen.
Aufgrund dieser Tatsache wurde in dieser Diplomarbeit versucht, ein Testverfahren zu entwickeln, das die Testung von Tachymetern auf ihre Gerätegenauigkeit zwischen zwei Messaufträgen erlaubt.
Da in der Praxis eine Neukalibrierung nur bei akutem Verdacht auf Unregelmäßigkeiten beziehungsweise routinemäßig in bestimmten Intervallen durchgeführt wird, ist es für den Benutzer durchaus interessant, zwischen den Wartungsterminen Informationen über den aktuellen Zustand der Geräte zu erhalten. Vermessungsingenieure oder Vermessungstechniker sollen ein gut handhabbares und schnell durchzuführendes Testverfahren in die Hand bekommen, das über die aktuellen Gerätespezifikationen Auskunft gibt. Auf Basis der erhaltenen Testergebnisse kann entschieden werden, ob eine sofortige Neukalibrierung durch den Gerätehersteller vorgenommen werden muss.
Die Diplomarbeit gliedert sich in einen Theorie- und einen Praxisteil. Der erste Abschnitt befasst sich mit den grundlegenden Anforderungen an das Testverfahren, deren theoretischen Grundlagen und Realisierung sowie mit dem aktuellen Stand der Lasertrackertechnik. Der zweite Teil umfasst die praktische Umsetzung des Testverfahrens und bewertet die erhaltenen Ergebnisse.
Abschließend werden die aus den Messungen erhaltenen Erkenntnisse diskutiert sowie daraus abgeleitete Verbesserungsvorschläge das Testverfahren betreffend angeführt.
Erstellung eines Geländemodells für Mitteleuropa unter der Verwendung eines globalen Oberflächenmodells (SRTM), eines regionalen Geländemodells und eines überregionalen Landbedeckungsmodells (Corine Landcover 2000)
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2007
Betreuer: Ao.Univ.-Prof. Dr. Nobert Kühtreiber
Betreuer: Ao.Univ.-Prof. Dr. Nobert Kühtreiber
Kurzfassung/Abstract
Ziel dieser Arbeit ist die Erstellung eines digitalen Geländemodells (DGM), das den Bereich 6°-23° Ost und 43°-53° Nord (Grundlage: World Geodetic System 1984 - WGS84) abdeckt. Dazu stehen drei unterschiedliche Datensätze zur Verfügung: Der Hauptdatensatz ist das globale digitale Oberflächenmodell (DOM) der Shuttle Radar Topography Mission (SRTM). Mithilfe des DGM des österreichischen Bundesamtes für Eich- und Vermessungswesens (BEV) und dem Corine Landcover (CLC) Modells werden die Unzulänglichkeiten des Oberflächenmodells ausgebessert sowie das gewünschte Geländemodell berechnet. Nach den Transformationen der Koordinaten der Hilfsmodelle in die geographischen Koordinaten des WGS84 werden die Leerstellen (Voids) gefüllt und das Rauschen (verursacht während der Messung mit Radar, also mit RAdio Detection and Ranging) bei Wasserflächen eliminiert. Weiters werden Bedeckungshöhen mithilfe aller Modelle berechnet und von den Oberflächenhöhen abgezogen. Dieser Schritt ermöglicht es, aus dem DOM ein DGM zu erstellen. Zudem werden die restlichen Voids interpoliert: Für diesen Schritt werden die Leerstellen gruppiert und klassifiziert. Schließlich wird der für die jeweilige Klasse am besten geeignete Interpolator angewandt.
Ziel dieser Arbeit ist die Erstellung eines digitalen Geländemodells (DGM), das den Bereich 6°-23° Ost und 43°-53° Nord (Grundlage: World Geodetic System 1984 - WGS84) abdeckt. Dazu stehen drei unterschiedliche Datensätze zur Verfügung: Der Hauptdatensatz ist das globale digitale Oberflächenmodell (DOM) der Shuttle Radar Topography Mission (SRTM). Mithilfe des DGM des österreichischen Bundesamtes für Eich- und Vermessungswesens (BEV) und dem Corine Landcover (CLC) Modells werden die Unzulänglichkeiten des Oberflächenmodells ausgebessert sowie das gewünschte Geländemodell berechnet. Nach den Transformationen der Koordinaten der Hilfsmodelle in die geographischen Koordinaten des WGS84 werden die Leerstellen (Voids) gefüllt und das Rauschen (verursacht während der Messung mit Radar, also mit RAdio Detection and Ranging) bei Wasserflächen eliminiert. Weiters werden Bedeckungshöhen mithilfe aller Modelle berechnet und von den Oberflächenhöhen abgezogen. Dieser Schritt ermöglicht es, aus dem DOM ein DGM zu erstellen. Zudem werden die restlichen Voids interpoliert: Für diesen Schritt werden die Leerstellen gruppiert und klassifiziert. Schließlich wird der für die jeweilige Klasse am besten geeignete Interpolator angewandt.
Analysis of full-waveform airborne laser scanning data for the improvement of DTM generation
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2008
Betreuer: Dipl.-Ing. Dr.techn. Markus Hollaus, Dipl.-Ing. Dr.techn. Christian Briese, Univ.Prof. Dipl.-Ing. Dr.techn. Norbert Pfeifer, Institut für Photogrammetrie und Fernerkundung, TU Wien
Betreuer: Dipl.-Ing. Dr.techn. Markus Hollaus, Dipl.-Ing. Dr.techn. Christian Briese, Univ.Prof. Dipl.-Ing. Dr.techn. Norbert Pfeifer, Institut für Photogrammetrie und Fernerkundung, TU Wien
Kurzfassung/Abstract
Diese Diplomarbeit beschäftigt sich mit der Nutzung von Full-Waveform Airborne Laser Scanning Daten für die Erstellung von naturgetreuen digitalen Geländemodellen. Die zusätzlichen Beobachtungen Amplitude, Echobreite und Backscatter Cross Section, die von Messungen mit dieser neuen Technologie abgeleitet werden können, werden schrittweise untersucht. Ihre Trennschärfe zur Unterscheidung von Laserscanner Punkten in Boden und Nicht-Boden Punkte wird analysiert. Basierend auf den Erkenntnissen dieser explorativen Datenanalyse werden drei Methoden zur Extraktion von Bodenpunkten aus der gesamten Punktwolke beschrieben und an einem Beispieldatensatz getestet. Zum einen werden harte Grenzwerte für die Full-Waveform Attribute an die Einzelpunkte angebracht, um so eine Klassifizierung in Boden und Nicht-Boden vorzunehmen. Zum anderen werden die Einzelpunkte anhand der Full-Waveform Information mit Gewichten versehen, welche die Wahrscheinlichkeit der Zugehörigkeit eines Punktes zur Klasse "Boden" beschreiben. Die dafür verwendeten Wahrscheinlichkeits- und Gewichtsfunktionen werden vorgestellt. Die dritte Methode nutzt einen Seeded Region Growing Segmentierungsalgorithmus. Dieser wird verwendet um Punkte mit ähnlichen Full-Waveform Attributen zu einzelnen Segmenten zusammenzufassen. Ein pragmatischer Ansatz zur Identifikation von daraus resultierenden Bodensegmenten wird präsentiert. Um die Verbesserung im Vergleich zu Geländemodellen, welche ohne die Verwendung von Full-Waveform Informationen erstellt wurden zu untersuchen, werden Geländemodelle von allen drei mit den zuvor genannten Methoden klassifizierten Punktwolken berechnet. Die Integration von Full-Waveform Informationen in die Erstellung der digitalen Geländemodelle führte zu einer Steigerung der Recheneffizienz und zu einer Verbesserung der Genauigkeit des resultierenden Modelles in Bezug auf den Naturstand. Vor allem dort wo auf Grund dichter Vegetation und niedriger Durchdringungsrate des Laserstrahls nur wenige bis stellenweise keine Bodenpunkte vorhanden waren.
Diese Diplomarbeit beschäftigt sich mit der Nutzung von Full-Waveform Airborne Laser Scanning Daten für die Erstellung von naturgetreuen digitalen Geländemodellen. Die zusätzlichen Beobachtungen Amplitude, Echobreite und Backscatter Cross Section, die von Messungen mit dieser neuen Technologie abgeleitet werden können, werden schrittweise untersucht. Ihre Trennschärfe zur Unterscheidung von Laserscanner Punkten in Boden und Nicht-Boden Punkte wird analysiert. Basierend auf den Erkenntnissen dieser explorativen Datenanalyse werden drei Methoden zur Extraktion von Bodenpunkten aus der gesamten Punktwolke beschrieben und an einem Beispieldatensatz getestet. Zum einen werden harte Grenzwerte für die Full-Waveform Attribute an die Einzelpunkte angebracht, um so eine Klassifizierung in Boden und Nicht-Boden vorzunehmen. Zum anderen werden die Einzelpunkte anhand der Full-Waveform Information mit Gewichten versehen, welche die Wahrscheinlichkeit der Zugehörigkeit eines Punktes zur Klasse "Boden" beschreiben. Die dafür verwendeten Wahrscheinlichkeits- und Gewichtsfunktionen werden vorgestellt. Die dritte Methode nutzt einen Seeded Region Growing Segmentierungsalgorithmus. Dieser wird verwendet um Punkte mit ähnlichen Full-Waveform Attributen zu einzelnen Segmenten zusammenzufassen. Ein pragmatischer Ansatz zur Identifikation von daraus resultierenden Bodensegmenten wird präsentiert. Um die Verbesserung im Vergleich zu Geländemodellen, welche ohne die Verwendung von Full-Waveform Informationen erstellt wurden zu untersuchen, werden Geländemodelle von allen drei mit den zuvor genannten Methoden klassifizierten Punktwolken berechnet. Die Integration von Full-Waveform Informationen in die Erstellung der digitalen Geländemodelle führte zu einer Steigerung der Recheneffizienz und zu einer Verbesserung der Genauigkeit des resultierenden Modelles in Bezug auf den Naturstand. Vor allem dort wo auf Grund dichter Vegetation und niedriger Durchdringungsrate des Laserstrahls nur wenige bis stellenweise keine Bodenpunkte vorhanden waren.
Der interaktive Flächenwidmungsplan im Internet - Spezifikationen für die Inhalte von interaktiven Flächenwidmungsplänen im Internet
Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, Technische Universität Wien, 2008
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Flächenwidmungspläne sind Instrumente der öffentlichen Verwaltung für die räumlich funktionale Entwicklung einer Gemeinde. In Österreich verfügen alle Gemeinden über einen rechtsgültigen Flächenwidmungsplan. Er kann während der Amtsstunden von jedermann eingesehen werden. Grundlagen dieser Pläne sind Raumordnungsgesetze der Bundesländer. Die Flächenwidmungspläne im Internet sind ein freiwilliges Angebot der öffentlichen Verwaltung und ergänzen das Telefonat oder den Besuch am Gemeindeamt. Sie werden von den Ländern als interaktive Karte innerhalb eines digitalen Atlasses und als pdf bereitgestellt. Diese Angebote stellen den Flächenwidmungsplan nur als Karte bereit und weichen von den analogen Flächenwidmungsplänen inhaltlich und formal ab. Dadurch erhält der Nutzer unvollständige Informationen. Aus diesem Grund wurden in dieser Arbeit die erforderlichen Inhalte für interaktive Flächenwidmungspläne im Internet und ihre Aufbereitung erarbeitet.
Die Inhalte wurden einerseits aus den Raumordnungsgesetzen und andererseits aus einer Umfrage unter Mitarbeitern der Planungsabteilungen von 48 Gemeinden bestimmt. Folgende Inhalte konnten identifiziert werden: der Plan, die textlichen Dokumente zum Plan, die gesetzlichen Grundlagen, häufig gestellte Fragen (FAQs) und Aktuelles über den Plan. In der Info wird eine Einführung in die Nutzung dieses Informationssystems (IS) gegeben.
Diese Inhalte lassen sich nicht in die interaktiven Atlanten der Länder integrieren. Deshalb wird ein eigenständiges IS vorgeschlagen, dessen Aufbau sich an den oben genannten Inhalten orientiert. Die Informationsgewinnung erfolgt primär über den Plan, wobei die geographische Suche und die Abfrage von expliziten Daten wichtig sind.
Flächenwidmungspläne sind Instrumente der öffentlichen Verwaltung für die räumlich funktionale Entwicklung einer Gemeinde. In Österreich verfügen alle Gemeinden über einen rechtsgültigen Flächenwidmungsplan. Er kann während der Amtsstunden von jedermann eingesehen werden. Grundlagen dieser Pläne sind Raumordnungsgesetze der Bundesländer. Die Flächenwidmungspläne im Internet sind ein freiwilliges Angebot der öffentlichen Verwaltung und ergänzen das Telefonat oder den Besuch am Gemeindeamt. Sie werden von den Ländern als interaktive Karte innerhalb eines digitalen Atlasses und als pdf bereitgestellt. Diese Angebote stellen den Flächenwidmungsplan nur als Karte bereit und weichen von den analogen Flächenwidmungsplänen inhaltlich und formal ab. Dadurch erhält der Nutzer unvollständige Informationen. Aus diesem Grund wurden in dieser Arbeit die erforderlichen Inhalte für interaktive Flächenwidmungspläne im Internet und ihre Aufbereitung erarbeitet.
Die Inhalte wurden einerseits aus den Raumordnungsgesetzen und andererseits aus einer Umfrage unter Mitarbeitern der Planungsabteilungen von 48 Gemeinden bestimmt. Folgende Inhalte konnten identifiziert werden: der Plan, die textlichen Dokumente zum Plan, die gesetzlichen Grundlagen, häufig gestellte Fragen (FAQs) und Aktuelles über den Plan. In der Info wird eine Einführung in die Nutzung dieses Informationssystems (IS) gegeben.
Diese Inhalte lassen sich nicht in die interaktiven Atlanten der Länder integrieren. Deshalb wird ein eigenständiges IS vorgeschlagen, dessen Aufbau sich an den oben genannten Inhalten orientiert. Die Informationsgewinnung erfolgt primär über den Plan, wobei die geographische Suche und die Abfrage von expliziten Daten wichtig sind.
Konzeptgestaltung und Aufbau eines multimodalen Transportnetzwerkes für die Landeshauptstadt Klagenfurt
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gernot Paulus (FH Technikum Kärnten), Günter Koren (Magistrat Klagenfurt)
Betreuer: Gernot Paulus (FH Technikum Kärnten), Günter Koren (Magistrat Klagenfurt)
Kurzfassung/Abstract
Diese Diplomarbeit beschäftigt sich mit der Konzeptgestaltung und dem Aufbau eines multimodalen Transportnetzwerkes. Die Funktionen eines GIS können nicht alle Bedürfnisse der Transportplanung abdecken, aber es bietet die Möglichkeiten den Bedürfnissen angepasst zu werden. Transportsysteme sind schwierig abzubilden deshalb ist es sehr wichtig ein geeignetes Datenmodell zu erstellen. Die meisten Standard GIS Systeme haben keine geeigneten Funktionalitäten um multimodale Netzwerke und komplizierte Konnektivitätsregeln zu modellieren. Durch ein besseres Zusammenwirken der Verkehrsträger (Straße, Schiene, Wasser, Luft) kann ein wichtiger Beitrag zu Sicherung der individuellen Mobilität bei stetig steigendem Verkehrsaufkommen geleistet werden. Diese Diplomarbeit beschäftigt sich mit der Modellierung und Implementierung eines multimodalen Transportnetzwerkes. Multimodales Transportnetzwerk bedeutet, dass alle möglichen Transportmedien (Fußgänger, Radfahrer, Öffentlicher Verkehr, Straßenverkehr) gemeinsam in einem Netzwerk abgebildet werden sollen. Damit sollen die angeführten Fortbewegungsarten und deren Kombinationsmöglichkeiten abgebildet und analysiert werden können. Es stellt die Basis für ein Simulations- und Entscheidungsunterstützungssystem zur Lösung von verkehrsrelevanten Fragestellungen dar. Es gibt viele einzelne Applikationen zur Betrachtung eines Verkehrstypen, Analyse- und Darstellungswerkzeuge zur ganzheitlichen Betrachtung aller städtischen Transportmöglichkeiten fehlen. Diese ganzheitliche Betrachtung wird in dieser Diplomarbeit anhand des Datenmodells gezeigt und es werden Beispiele und Analysen zur besseren Betrachtung des multimodalen Transportnetzwerkes für Klagenfurt dargestellt. Der Schwerpunkt der Analysen liegt im Bereich von Viktring, da dort alle Transportmöglichkeiten wieder gefunden werden. Ein wichtiger Punkt ist die Sicherheit von Fußgängern und Radfahrern die sich in der Schulwegsicherheit widerspiegelt.
Diese Diplomarbeit beschäftigt sich mit der Konzeptgestaltung und dem Aufbau eines multimodalen Transportnetzwerkes. Die Funktionen eines GIS können nicht alle Bedürfnisse der Transportplanung abdecken, aber es bietet die Möglichkeiten den Bedürfnissen angepasst zu werden. Transportsysteme sind schwierig abzubilden deshalb ist es sehr wichtig ein geeignetes Datenmodell zu erstellen. Die meisten Standard GIS Systeme haben keine geeigneten Funktionalitäten um multimodale Netzwerke und komplizierte Konnektivitätsregeln zu modellieren. Durch ein besseres Zusammenwirken der Verkehrsträger (Straße, Schiene, Wasser, Luft) kann ein wichtiger Beitrag zu Sicherung der individuellen Mobilität bei stetig steigendem Verkehrsaufkommen geleistet werden. Diese Diplomarbeit beschäftigt sich mit der Modellierung und Implementierung eines multimodalen Transportnetzwerkes. Multimodales Transportnetzwerk bedeutet, dass alle möglichen Transportmedien (Fußgänger, Radfahrer, Öffentlicher Verkehr, Straßenverkehr) gemeinsam in einem Netzwerk abgebildet werden sollen. Damit sollen die angeführten Fortbewegungsarten und deren Kombinationsmöglichkeiten abgebildet und analysiert werden können. Es stellt die Basis für ein Simulations- und Entscheidungsunterstützungssystem zur Lösung von verkehrsrelevanten Fragestellungen dar. Es gibt viele einzelne Applikationen zur Betrachtung eines Verkehrstypen, Analyse- und Darstellungswerkzeuge zur ganzheitlichen Betrachtung aller städtischen Transportmöglichkeiten fehlen. Diese ganzheitliche Betrachtung wird in dieser Diplomarbeit anhand des Datenmodells gezeigt und es werden Beispiele und Analysen zur besseren Betrachtung des multimodalen Transportnetzwerkes für Klagenfurt dargestellt. Der Schwerpunkt der Analysen liegt im Bereich von Viktring, da dort alle Transportmöglichkeiten wieder gefunden werden. Ein wichtiger Punkt ist die Sicherheit von Fußgängern und Radfahrern die sich in der Schulwegsicherheit widerspiegelt.
A GIS-Based Multicriteria Decision Support for Traffic Rerouting to Evaluate the PM10 Concentration in Klagenfurt, Austria
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2008
Betreuer: Michael Leitner (Louisiana State University), Gernot Paulus (FH Technikum Kärnten)
Betreuer: Michael Leitner (Louisiana State University), Gernot Paulus (FH Technikum Kärnten)
Kurzfassung/Abstract
This thesis describes a Geographic Information System (GIS)-based multicriteria decision analysis (MCDA) on how to reroute the traffic in order to address the particulate matter (PM) problem, more precisely the PM10 (PM particles with a diameter up to 10 µm) problem for the city of Klagenfurt. PM10 causes acute and chronic diseases and it reduces the life expectancy. Population groups that are at high risk of PM10 are children, elderly and people with preexisting diseases. The PM10 emissions in the city of Klagenfurt are influenced by geographical and seasonal conditions, which are one of the reasons why the PM10 concentration is too high. The major emission source is the traffic. Therefore, the government developed scenarios for rerouting the traffic in the city of Klagenfurt. But which scenario for rerouting the traffic should be considered? This is the main research question that is attempted to be answered in this thesis. The decision analysis focuses on two essential parts, including the data preparation and the decision process, whereas the output of the data preparation serves as input for the decision process. The thesis is based on interpolated PM10 concentration data for the city of Klagenfurt. A model is generated, that converts, analyzes and prepares the PM10 data by integrating GIS functions in such a way that they are useful for the MCDA. The MCDA aggregates the spatial data for defining a problem, which is the basis for multicriteria decision making (MCDM). Based on the problem, evaluation criteria and possible solutions, so called decision alternatives, are developed. By the integration of the decision makers preference and the application of a decision rule a decision is determined under the consideration of specified evaluation criteria and decision alternatives. The results show the possibility to apply a MCDA coupled with a GIS to create a decision basis for PM related evaluations and planning questions.
This thesis describes a Geographic Information System (GIS)-based multicriteria decision analysis (MCDA) on how to reroute the traffic in order to address the particulate matter (PM) problem, more precisely the PM10 (PM particles with a diameter up to 10 µm) problem for the city of Klagenfurt. PM10 causes acute and chronic diseases and it reduces the life expectancy. Population groups that are at high risk of PM10 are children, elderly and people with preexisting diseases. The PM10 emissions in the city of Klagenfurt are influenced by geographical and seasonal conditions, which are one of the reasons why the PM10 concentration is too high. The major emission source is the traffic. Therefore, the government developed scenarios for rerouting the traffic in the city of Klagenfurt. But which scenario for rerouting the traffic should be considered? This is the main research question that is attempted to be answered in this thesis. The decision analysis focuses on two essential parts, including the data preparation and the decision process, whereas the output of the data preparation serves as input for the decision process. The thesis is based on interpolated PM10 concentration data for the city of Klagenfurt. A model is generated, that converts, analyzes and prepares the PM10 data by integrating GIS functions in such a way that they are useful for the MCDA. The MCDA aggregates the spatial data for defining a problem, which is the basis for multicriteria decision making (MCDM). Based on the problem, evaluation criteria and possible solutions, so called decision alternatives, are developed. By the integration of the decision makers preference and the application of a decision rule a decision is determined under the consideration of specified evaluation criteria and decision alternatives. The results show the possibility to apply a MCDA coupled with a GIS to create a decision basis for PM related evaluations and planning questions.
Automatische Schadstellendetektion im Fahrbahnbelag mittels Beschleunigungsmessung
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2007
Betreuer: Univ.-Doz.. Dr. Andreas Wieser
Betreuer: Univ.-Doz.. Dr. Andreas Wieser
Kurzfassung/Abstract
Es wird untersucht, ob es mit Hilfe von Beschleunigungsmessern in Fahrzeugen möglich ist, Schadstellen im Fahrbahnbelag automatisch während der Überfahrt zu detektieren. Schadhafte Stellen im Fahrbahnbelag verursachen Vertikalbeschleunigungen des Fahrzeugs, die anhand von Beschleunigungsmessungen erfasst werden können. Eine Analyse der Beschleunigungen ermöglicht daher Rückschlüsse auf den Fahrbahnzustand. Wenn die Position des Fahrzeugs mittels GPS laufend bestimmt wird, können die so detektieren Schadstellen verortet, in einem Geoinformationssystem gespeichert und in einer Karte oder einem Orthofoto visualisiert werden. Es wurde ein Messsystem entwickelt, mit welchem Vertikalbeschleunigungen und Positionen des Fahrzeugs aufgezeichnet und im Postprocessing ausgewertet werden konnten. Um das experimentelle Messsystem zu untersuchen und detektierte Schadstellen zu verifizieren, wurde während der Testfahrten eine Videokamera verwendet, mit welcher die Fahrbahn gefilmt wurde. Auf einem Abschnitt im Grazer Stadtgebiet wurden vor und nach einer Sanierung des Fahrbahnbelags Messungen durchgeführt. Die Ergebnisse der ersten Messfahrten zeigen den ursprünglichen Sanierungsbedarf lagerichtig an, und die Auswertung späterer Fahrten belegt den Erfolg der Sanierung. Damit wurde auch die prinzipielle Machbarkeit eines solchen Messsystems gezeigt.
Es wird untersucht, ob es mit Hilfe von Beschleunigungsmessern in Fahrzeugen möglich ist, Schadstellen im Fahrbahnbelag automatisch während der Überfahrt zu detektieren. Schadhafte Stellen im Fahrbahnbelag verursachen Vertikalbeschleunigungen des Fahrzeugs, die anhand von Beschleunigungsmessungen erfasst werden können. Eine Analyse der Beschleunigungen ermöglicht daher Rückschlüsse auf den Fahrbahnzustand. Wenn die Position des Fahrzeugs mittels GPS laufend bestimmt wird, können die so detektieren Schadstellen verortet, in einem Geoinformationssystem gespeichert und in einer Karte oder einem Orthofoto visualisiert werden. Es wurde ein Messsystem entwickelt, mit welchem Vertikalbeschleunigungen und Positionen des Fahrzeugs aufgezeichnet und im Postprocessing ausgewertet werden konnten. Um das experimentelle Messsystem zu untersuchen und detektierte Schadstellen zu verifizieren, wurde während der Testfahrten eine Videokamera verwendet, mit welcher die Fahrbahn gefilmt wurde. Auf einem Abschnitt im Grazer Stadtgebiet wurden vor und nach einer Sanierung des Fahrbahnbelags Messungen durchgeführt. Die Ergebnisse der ersten Messfahrten zeigen den ursprünglichen Sanierungsbedarf lagerichtig an, und die Auswertung späterer Fahrten belegt den Erfolg der Sanierung. Damit wurde auch die prinzipielle Machbarkeit eines solchen Messsystems gezeigt.
Magnetfeldmodelle aus CHAMP-Beobachtungen
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2008
Betreuer: Ao-.Univ.-Prof. Dr. Roland Pail
Betreuer: Ao-.Univ.-Prof. Dr. Roland Pail
Kurzfassung/Abstract
Das Erdmagnetfeld schützt alles Leben auf unserem Planeten vor der hochenergetischen kosmischen Strahlung und dient auch als Navigationshilfe. Das Erdmagnetfeld entspricht in erster Näherung einem Dipol und hat seinen Ursprung im Erdinneren. Die Dipolachse ist um etwa 11° gegenüber der Erdrotationsachse geneigt. Bei genauer Betrachtung gibt es aber beträchtliche Abweichungen von der Dipolstruktur, deren Ursache primär auf Quellen im Erdkern zurückzuführen ist. Dazu kommen noch der Beitrag von magnetisiertem Gestein in der Erdkruste und äußere Anteile aus der Ionosphäre und Magnetosphäre. Das Magnetfeld der Erde ist ständigen Veränderungen unterworfen. Untersuchungen in den letzten 150 Jahren zeigen eine Abschwächung des Magnetfeldes um ca. 10% innerhalb dieses Zeitraums. Die Satellitenmission CHAMP (CHAllenging Minisatellite Payload) wurde im Jahr 2000 unter anderem zur Beobachtung des Erdmagnetfelds gestartet. Dazu hat CHAMP zwei Magnetometer an Board: ein Protonenpräzessions-Magnetometer für Kalibrierungszwecke sowie ein Fluxgate-Magnetometer zur Messung des magnetischen Feldvektors. Die Messungen liefern wertvolle Informationen über die Intensität sowie zeitliche und räumliche Variationen des Magnetfelds. In dieser Arbeit soll die Verarbeitung der Satellitendaten gezeigt und daraus ein Magnetfeldmodell durch Parametrisierung mittels Entwicklung in eine Kugelfunktionsreihe abgeleitet werden. Die unbekannten Parameter der Kugelfunktionsreihe stellen die Gauss-Koeffizienten dar, die durch eine vermittelnde Ausgleichung nach der Methode der kleinsten Quadrate ermittelt werden. Im Vorfeld wurde die korrekte Implementierung des mathematischen Modells mittels einer synthetischen Testumgebung kontrolliert und verschiedene Szenarien mit fehlerbehafteten Daten simuliert. Im Anschluss wurden reale Daten verwendet, Probleme bei der Verarbeitung der CHAMP Beobachtungen aufgezeigt und Verbesserungen diskutiert. Schließlich wurden ein Gesamtfeldmodell bis Kugelfunktionsgrad 60 sowie ein Hauptfeldmodell bis Grad 13 berechnet und mit dem Referenzmodell POMME-4 verglichen.
Das Erdmagnetfeld schützt alles Leben auf unserem Planeten vor der hochenergetischen kosmischen Strahlung und dient auch als Navigationshilfe. Das Erdmagnetfeld entspricht in erster Näherung einem Dipol und hat seinen Ursprung im Erdinneren. Die Dipolachse ist um etwa 11° gegenüber der Erdrotationsachse geneigt. Bei genauer Betrachtung gibt es aber beträchtliche Abweichungen von der Dipolstruktur, deren Ursache primär auf Quellen im Erdkern zurückzuführen ist. Dazu kommen noch der Beitrag von magnetisiertem Gestein in der Erdkruste und äußere Anteile aus der Ionosphäre und Magnetosphäre. Das Magnetfeld der Erde ist ständigen Veränderungen unterworfen. Untersuchungen in den letzten 150 Jahren zeigen eine Abschwächung des Magnetfeldes um ca. 10% innerhalb dieses Zeitraums. Die Satellitenmission CHAMP (CHAllenging Minisatellite Payload) wurde im Jahr 2000 unter anderem zur Beobachtung des Erdmagnetfelds gestartet. Dazu hat CHAMP zwei Magnetometer an Board: ein Protonenpräzessions-Magnetometer für Kalibrierungszwecke sowie ein Fluxgate-Magnetometer zur Messung des magnetischen Feldvektors. Die Messungen liefern wertvolle Informationen über die Intensität sowie zeitliche und räumliche Variationen des Magnetfelds. In dieser Arbeit soll die Verarbeitung der Satellitendaten gezeigt und daraus ein Magnetfeldmodell durch Parametrisierung mittels Entwicklung in eine Kugelfunktionsreihe abgeleitet werden. Die unbekannten Parameter der Kugelfunktionsreihe stellen die Gauss-Koeffizienten dar, die durch eine vermittelnde Ausgleichung nach der Methode der kleinsten Quadrate ermittelt werden. Im Vorfeld wurde die korrekte Implementierung des mathematischen Modells mittels einer synthetischen Testumgebung kontrolliert und verschiedene Szenarien mit fehlerbehafteten Daten simuliert. Im Anschluss wurden reale Daten verwendet, Probleme bei der Verarbeitung der CHAMP Beobachtungen aufgezeigt und Verbesserungen diskutiert. Schließlich wurden ein Gesamtfeldmodell bis Kugelfunktionsgrad 60 sowie ein Hauptfeldmodell bis Grad 13 berechnet und mit dem Referenzmodell POMME-4 verglichen.
Konzept eines räumlichen Entscheidungsunterstützungssystems bei standortaufwertenden Vorhaben für Entscheidungsträger der Raumentwicklung
Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, Technische Universität Wien, 2008
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner und Ass. Prof. Dipl.-Ing. Dr. Mirjanka Lechthaler
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner und Ass. Prof. Dipl.-Ing. Dr. Mirjanka Lechthaler
Kurzfassung/Abstract
Das entwickelte Entscheidungsunterstützungssystem für gemeinde- und regionalpolitisch standortaufwertende Vorhaben stellt einen Beitrag zur Optimierung und Systematisierung von Entscheidungsabläufen in Gebietskörperschaften, ausgehend von Planungsprozessen bis hin zu der Entscheidung über Alternativen bei räumlichen Vorhaben, dar.
Standortaufwertende Vorhaben, insbesondere Standort- und Maßnahmenplanungen, bedürfen für deren Realisierung Entscheidungen (zumeist durch Politiker, eventuell auch durch politische Beamte) und der administrativen Ausführung durch Beamte.
Aus diesen Überlegungen heraus wurde von den Autoren die These aufgestellt, dass ein allgemein gültiges Entscheidungsunterstützungssystem für die Entscheidungsfindung bei Standort- und Maßnahmenplanungen unabhängig von der Ausgangs- und Sachlage sowie der Gebietskörperschaft entwickelt werden kann. Das Entscheidungsunterstützungssystem ermöglicht einem Entscheidungsträger in der Raumplanung, unter Einbeziehung wissensbasierter Kriterien, eine optimierte Entscheidung für standortaufwertende Planungsvorhaben, unter den Prinzipien der "Good Governance", zu treffen.
Das theoretische Konzept zur Entscheidungsunterstützung wurde unter Zuhilfenahmen von geltenden Theorien (z.B. Theorien der Raumplanung, der Entscheidung, des Utilitarismus, der Kartographie, etc.) und Prinzipien (z.B. Prinzipien der "Good Governance" und der "Evidence-based policy") entwickelt.
Eine beispielhafte Umsetzung dieses Konzepts wurde anhand zweier Gebietskörperschaften simuliert - Stadt Gänserndorf in Niederösterreich (Standort-entscheidung) bzw. Gemeinde Krispl in Salzburg (Maßnahmenentscheidung).
Mit den praktischen Beispielen sollte belegt werden, dass das entwickelte Konzept, mit einer systematisierten und optimierten Entscheidungsunterstützung, unabhängig von der Art der Entscheidung und der Gebietskörperschaft (geographischer Lage, Topographie, Datengrundlagen, Gesetzgebung, etc.), umgesetzt werden kann.
Aufgrund des ausgewerteten Fragebogens, in dem Akteure der Raumordnung aus acht Ländern zu deren Entscheidungsfindung Stellung nehmen, sowie der dargestellten Beispiele, stellt der Beitrag den Anspruch eines allgemein anwendbaren Konzeptes im Rahmen der Entscheidung über standortaufwertende Vorhaben (Standort- und Maßnahmenplanungen).
Das entwickelte Entscheidungsunterstützungssystem für gemeinde- und regionalpolitisch standortaufwertende Vorhaben stellt einen Beitrag zur Optimierung und Systematisierung von Entscheidungsabläufen in Gebietskörperschaften, ausgehend von Planungsprozessen bis hin zu der Entscheidung über Alternativen bei räumlichen Vorhaben, dar.
Standortaufwertende Vorhaben, insbesondere Standort- und Maßnahmenplanungen, bedürfen für deren Realisierung Entscheidungen (zumeist durch Politiker, eventuell auch durch politische Beamte) und der administrativen Ausführung durch Beamte.
Aus diesen Überlegungen heraus wurde von den Autoren die These aufgestellt, dass ein allgemein gültiges Entscheidungsunterstützungssystem für die Entscheidungsfindung bei Standort- und Maßnahmenplanungen unabhängig von der Ausgangs- und Sachlage sowie der Gebietskörperschaft entwickelt werden kann. Das Entscheidungsunterstützungssystem ermöglicht einem Entscheidungsträger in der Raumplanung, unter Einbeziehung wissensbasierter Kriterien, eine optimierte Entscheidung für standortaufwertende Planungsvorhaben, unter den Prinzipien der "Good Governance", zu treffen.
Das theoretische Konzept zur Entscheidungsunterstützung wurde unter Zuhilfenahmen von geltenden Theorien (z.B. Theorien der Raumplanung, der Entscheidung, des Utilitarismus, der Kartographie, etc.) und Prinzipien (z.B. Prinzipien der "Good Governance" und der "Evidence-based policy") entwickelt.
Eine beispielhafte Umsetzung dieses Konzepts wurde anhand zweier Gebietskörperschaften simuliert - Stadt Gänserndorf in Niederösterreich (Standort-entscheidung) bzw. Gemeinde Krispl in Salzburg (Maßnahmenentscheidung).
Mit den praktischen Beispielen sollte belegt werden, dass das entwickelte Konzept, mit einer systematisierten und optimierten Entscheidungsunterstützung, unabhängig von der Art der Entscheidung und der Gebietskörperschaft (geographischer Lage, Topographie, Datengrundlagen, Gesetzgebung, etc.), umgesetzt werden kann.
Aufgrund des ausgewerteten Fragebogens, in dem Akteure der Raumordnung aus acht Ländern zu deren Entscheidungsfindung Stellung nehmen, sowie der dargestellten Beispiele, stellt der Beitrag den Anspruch eines allgemein anwendbaren Konzeptes im Rahmen der Entscheidung über standortaufwertende Vorhaben (Standort- und Maßnahmenplanungen).
Analyse und Vergleich von Open Source Web Mapping Clients
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gernot Paulus (FH Technikum Kärnten), Thomas Piechl (Amt der Kärntner Landesregierung)
Betreuer: Gernot Paulus (FH Technikum Kärnten), Thomas Piechl (Amt der Kärntner Landesregierung)
Kurzfassung/Abstract
Karten waren schon immer ein wichtiges Mittel zur Navigation und Orientierung und im Zeitalter des Internets stieg das Bedürfnis nach Karten, auf die jeder über das Internet Zugriff hat, stark an. Und so wurden bereits Anfang 2001 mehr als 200 Millionen Karten über das Internet aufgerufen. In einem interaktiven Medium wie dem Internet reicht es allerdings nicht, statische Karten und Bilder zu zeigen, vielmehr wuchs das Verlangen nach interaktiven, anpassungsfähigen und hoch performanten Karten immer weiter an.
Neben großen Konzernen, die interaktive Karten (sogenannte Web Mapping Applikationen) wie Google Maps oder Microsoft Virtual Earth entwickelten, wuchs auch die Zahl von Open Source Web Mapping Clients die es jedem ermöglichen eigene online Kartendienste zu entwickeln. Genau dieses Thema der Open Source Web Mapping Clients versucht diese Arbeit näher zu beleuchten.
Hierzu werden zunächst die Grundlagen von Open Source und die notwendige Software, die zum Funktionieren eines solchen online Kartendienstes notwendig ist, erklärt. Neben den zusätzlichen Softwareprodukten wie z. B. einen UMN-Mapserver oder Datenbanken zum Speichern von Geodaten sind grundlegende Themen wie die Art der verwendbaren Geodaten sowie verwendete und unterstützte Standards für Open Source Produkte von immenser Bedeutung. Im Bereich der Open Source Web Mapping Clients findet vor allem der Web Feature Service (WFS) und Web Map Service (WMS) als Standard große Verwendung. Da die reine Bereitstellung von Daten und Diensten alleine aber nicht mehr ausreicht, wurden von den Entwicklern einiger Clients auch Strategien zur Erhöhung der Anzeigegeschwindigkeit von online Karten entwickelt und in dieser Arbeit vorgestellt.
Neben den theoretischen Aspekten des Web Mappings wurden im Rahmen eines Projektes zwei unterschiedliche Web Mapping Clients als online Applikation entwickelt. Die Implementierung dieser Applikationen werden im Rahmen dieser Arbeit vorgestellt und erklärt. Einen wichtigen Aspekt stellt aber der Vergleich und die Analyse mehrerer ausgewählter Web Mapping Clients dar, welche hinsichtlich ihrer Funktionen bzw. Fähigkeiten analysiert und anschließend diskutiert werden.
Das Resultat ist ein Überblick über die Fähigkeiten und Funktionen moderner Web Mapping Clients, eine Anleitung zur Umsetzung eigener Projekte und eine Einschätzung über einzelne Clients hinsichtlich ihrer Nutzbarkeit.
Karten waren schon immer ein wichtiges Mittel zur Navigation und Orientierung und im Zeitalter des Internets stieg das Bedürfnis nach Karten, auf die jeder über das Internet Zugriff hat, stark an. Und so wurden bereits Anfang 2001 mehr als 200 Millionen Karten über das Internet aufgerufen. In einem interaktiven Medium wie dem Internet reicht es allerdings nicht, statische Karten und Bilder zu zeigen, vielmehr wuchs das Verlangen nach interaktiven, anpassungsfähigen und hoch performanten Karten immer weiter an.
Neben großen Konzernen, die interaktive Karten (sogenannte Web Mapping Applikationen) wie Google Maps oder Microsoft Virtual Earth entwickelten, wuchs auch die Zahl von Open Source Web Mapping Clients die es jedem ermöglichen eigene online Kartendienste zu entwickeln. Genau dieses Thema der Open Source Web Mapping Clients versucht diese Arbeit näher zu beleuchten.
Hierzu werden zunächst die Grundlagen von Open Source und die notwendige Software, die zum Funktionieren eines solchen online Kartendienstes notwendig ist, erklärt. Neben den zusätzlichen Softwareprodukten wie z. B. einen UMN-Mapserver oder Datenbanken zum Speichern von Geodaten sind grundlegende Themen wie die Art der verwendbaren Geodaten sowie verwendete und unterstützte Standards für Open Source Produkte von immenser Bedeutung. Im Bereich der Open Source Web Mapping Clients findet vor allem der Web Feature Service (WFS) und Web Map Service (WMS) als Standard große Verwendung. Da die reine Bereitstellung von Daten und Diensten alleine aber nicht mehr ausreicht, wurden von den Entwicklern einiger Clients auch Strategien zur Erhöhung der Anzeigegeschwindigkeit von online Karten entwickelt und in dieser Arbeit vorgestellt.
Neben den theoretischen Aspekten des Web Mappings wurden im Rahmen eines Projektes zwei unterschiedliche Web Mapping Clients als online Applikation entwickelt. Die Implementierung dieser Applikationen werden im Rahmen dieser Arbeit vorgestellt und erklärt. Einen wichtigen Aspekt stellt aber der Vergleich und die Analyse mehrerer ausgewählter Web Mapping Clients dar, welche hinsichtlich ihrer Funktionen bzw. Fähigkeiten analysiert und anschließend diskutiert werden.
Das Resultat ist ein Überblick über die Fähigkeiten und Funktionen moderner Web Mapping Clients, eine Anleitung zur Umsetzung eigener Projekte und eine Einschätzung über einzelne Clients hinsichtlich ihrer Nutzbarkeit.
Nachbarschaftstreue Koordinatentransformation mit geometrischen Bedingungen am Beispiel der österreichischen Digitalen Katastralmappe
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2008
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Kurzfassung/Abstract
Die Grenzpunkte in der österreichischen Digitalen Katastralmappe (DKM) haben zweidimensionale Gebrauchskoordinaten und stützen sich auf das nationale amtliche Festpunktfeld. Dieses historisch gewachsene Festpunktfeld wird vom Bundesamt für Eich- und Vermessungswesen (BEV) verwaltet und bei Bedarf überarbeitet. Die Koordinaten der Festpunkte mussten zum Teil schon in der Vergangenheit mehrmals korrigiert werden. Weitere Koordinatenänderungen stehen wegen Homogenisierungsbestrebungen des Festpunktfeldes bevor. Koordinatenänderungen der Festpunkte erfordern in der Folge auch eine Korrektur der untergeordneten Grenzpunkte. Für diese Transformation, die neben der Entstehungsgeschichte auch geometrische Beziehungen zwischen den Grenzpunkten berücksichtigen soll, gibt es im BEV noch keine zufriedenstellende Software. Im Rahmen dieser Arbeit wurde ein Algorithmus entwickelt, der alle Punkte der DKM schrittweise transformiert. Dabei werden mehrere Festpunktänderungen und geometrische Beziehungen zwischen benachbarten Punkten berücksichtigt. Der verwendete Ansatz beruht auf einem Ausgleich nach Parametern mit Bedingungen. Als praktisches Beispiel wird die gesamte DKM der Katastralgemeinde 63243 Kirchenviertel transformiert. Die Ergebnisse werden gemäß den Anforderungen analysiert und mit einer Transformationslösung des BEV verglichen. Der vorgestellte Algorithmus kann die gestellten Anforderungen größtenteils erfüllen. Die automatisiert berechneten Ergebnisse erreichen die gestellten Ziele wesentlich besser als die Transformation des BEV. Der Großteil der in der DKM vorkommenden Geraden kann erhalten bleiben (99.5 %), während durch die Transformation des BEV, trotz manueller Nachbearbeitung, etwa zehn Prozent der Geraden deformiert werden. Die durchschnittliche Flächenänderung der wichtigsten Grundstückskategorie kann, verglichen mit der Transformation des BEV, um etwa 50 Prozent gesenkt werden. Die erarbeitete Methode ist damit geeignet, die untergeordneten Punkte der DKM, nach der Homogenisierung des amtlichen Festpunktfelds, flächendeckend zu korrigieren. Durch die automatisierte Transformationsmethode können außerdem pro Katastralgemeinde durchschnittlich 50 Arbeitsstunden an manueller Nachbearbeitung eingespart werden.
Die Grenzpunkte in der österreichischen Digitalen Katastralmappe (DKM) haben zweidimensionale Gebrauchskoordinaten und stützen sich auf das nationale amtliche Festpunktfeld. Dieses historisch gewachsene Festpunktfeld wird vom Bundesamt für Eich- und Vermessungswesen (BEV) verwaltet und bei Bedarf überarbeitet. Die Koordinaten der Festpunkte mussten zum Teil schon in der Vergangenheit mehrmals korrigiert werden. Weitere Koordinatenänderungen stehen wegen Homogenisierungsbestrebungen des Festpunktfeldes bevor. Koordinatenänderungen der Festpunkte erfordern in der Folge auch eine Korrektur der untergeordneten Grenzpunkte. Für diese Transformation, die neben der Entstehungsgeschichte auch geometrische Beziehungen zwischen den Grenzpunkten berücksichtigen soll, gibt es im BEV noch keine zufriedenstellende Software. Im Rahmen dieser Arbeit wurde ein Algorithmus entwickelt, der alle Punkte der DKM schrittweise transformiert. Dabei werden mehrere Festpunktänderungen und geometrische Beziehungen zwischen benachbarten Punkten berücksichtigt. Der verwendete Ansatz beruht auf einem Ausgleich nach Parametern mit Bedingungen. Als praktisches Beispiel wird die gesamte DKM der Katastralgemeinde 63243 Kirchenviertel transformiert. Die Ergebnisse werden gemäß den Anforderungen analysiert und mit einer Transformationslösung des BEV verglichen. Der vorgestellte Algorithmus kann die gestellten Anforderungen größtenteils erfüllen. Die automatisiert berechneten Ergebnisse erreichen die gestellten Ziele wesentlich besser als die Transformation des BEV. Der Großteil der in der DKM vorkommenden Geraden kann erhalten bleiben (99.5 %), während durch die Transformation des BEV, trotz manueller Nachbearbeitung, etwa zehn Prozent der Geraden deformiert werden. Die durchschnittliche Flächenänderung der wichtigsten Grundstückskategorie kann, verglichen mit der Transformation des BEV, um etwa 50 Prozent gesenkt werden. Die erarbeitete Methode ist damit geeignet, die untergeordneten Punkte der DKM, nach der Homogenisierung des amtlichen Festpunktfelds, flächendeckend zu korrigieren. Durch die automatisierte Transformationsmethode können außerdem pro Katastralgemeinde durchschnittlich 50 Arbeitsstunden an manueller Nachbearbeitung eingespart werden.
External Calibration of Satellite Gravity Gradient Observations
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2008
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Betreuer: Ao.Univ.-Prof. Dr. Roland Pail
Kurzfassung/Abstract
Die Satellitenmission GOCE nutzt erstmals einen Gradiometer zur Bestimmung des globalen Schwerefeldes der Erde. Die von einem Gradiometer beobachteten Beschleunigungsdifferenzen unterliegen aufgrund möglicher Unzulänglichkeiten nicht nur stochastischen, sondern auch systematischen Fehlern. Diese entstehen durch Rotationen und Verschiebungen der einzelnen Akzelerometer gegenüber der idealen Konfiguration. Ziel der Arbeit ist es Methoden zu entwickeln, um die inverse Kalibrierungsmatrix (IKM), die diese Unzulänglichkeiten parametrisiert, mittels Ausgleichung zu ermitteln. Hierbei wird eine strenge Analyse des Rausch- und Fehlerverhaltens des Systems durchgeführt. Mittels durchgängiger Kovarianzfortpflanzung wird die mögliche Qualität der Kalibrierung aufgezeigt. Weiters wurde eine Simulationsumgebung entwickelt, die Datensynthese, Datenanalyse, Kovarianzfortpflanzung und Kalibrierung möglich macht. Schlussendlich wurden Methoden zur Verbesserung der Kalibriergenauigkeit entwickelt und getestet. Die größten Probleme bei der Herleitung der IKM bereiteten das farbige Rauschen der Winkelbeschleunigungen und der Winkelgeschwindigkeiten. Durch Anbringen eines geeigneten Band-Pass-Filters konnte das Messrauschen der Akzelerometer und das Rauschen der Winkelinformationen stark reduziert werden. Weiters wurde geeignete Varianz-Kovarianz-Information synthetisiert und in das System eingebunden. So konnte die maximal erzielbare Genauigkeit der geschätzten Parameter auf <10e-3 gesteigert werden. Eine Analyse der Korrelationen der geschätzten Parameter ergab, dass durch Hochpassfilterung die Korrelation von Bias-Parametern zu den anderen Parametern verschwindet. Der Grund dafür ist, dass Hochpassfilterung dazu führt, dass die Biases vom Signal entfernt werden. Deswegen ist es weiters nicht möglich, Bias-Parameter exakt zu schätzen. Dafür steigt die Qualität der Schätzung der anderen Parameter. Schlussendlich zeigte die Schätzung von Schwerefeld-Koeffizienten aus extern kalibrierten und nicht kalibrierten Daten, dass eine Verbesserung der Signalqualität möglich ist. Allerdings sind Restfehler aufgrund der maximalen Genauigkeit der extern geschätzten IKM von 10e-3 zu erwarten.
Die Satellitenmission GOCE nutzt erstmals einen Gradiometer zur Bestimmung des globalen Schwerefeldes der Erde. Die von einem Gradiometer beobachteten Beschleunigungsdifferenzen unterliegen aufgrund möglicher Unzulänglichkeiten nicht nur stochastischen, sondern auch systematischen Fehlern. Diese entstehen durch Rotationen und Verschiebungen der einzelnen Akzelerometer gegenüber der idealen Konfiguration. Ziel der Arbeit ist es Methoden zu entwickeln, um die inverse Kalibrierungsmatrix (IKM), die diese Unzulänglichkeiten parametrisiert, mittels Ausgleichung zu ermitteln. Hierbei wird eine strenge Analyse des Rausch- und Fehlerverhaltens des Systems durchgeführt. Mittels durchgängiger Kovarianzfortpflanzung wird die mögliche Qualität der Kalibrierung aufgezeigt. Weiters wurde eine Simulationsumgebung entwickelt, die Datensynthese, Datenanalyse, Kovarianzfortpflanzung und Kalibrierung möglich macht. Schlussendlich wurden Methoden zur Verbesserung der Kalibriergenauigkeit entwickelt und getestet. Die größten Probleme bei der Herleitung der IKM bereiteten das farbige Rauschen der Winkelbeschleunigungen und der Winkelgeschwindigkeiten. Durch Anbringen eines geeigneten Band-Pass-Filters konnte das Messrauschen der Akzelerometer und das Rauschen der Winkelinformationen stark reduziert werden. Weiters wurde geeignete Varianz-Kovarianz-Information synthetisiert und in das System eingebunden. So konnte die maximal erzielbare Genauigkeit der geschätzten Parameter auf <10e-3 gesteigert werden. Eine Analyse der Korrelationen der geschätzten Parameter ergab, dass durch Hochpassfilterung die Korrelation von Bias-Parametern zu den anderen Parametern verschwindet. Der Grund dafür ist, dass Hochpassfilterung dazu führt, dass die Biases vom Signal entfernt werden. Deswegen ist es weiters nicht möglich, Bias-Parameter exakt zu schätzen. Dafür steigt die Qualität der Schätzung der anderen Parameter. Schlussendlich zeigte die Schätzung von Schwerefeld-Koeffizienten aus extern kalibrierten und nicht kalibrierten Daten, dass eine Verbesserung der Signalqualität möglich ist. Allerdings sind Restfehler aufgrund der maximalen Genauigkeit der extern geschätzten IKM von 10e-3 zu erwarten.
Validation and application of free-online and commercial post-processing PPP packages
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2008
Betreuer: Univ.-Prof. Dr. Bernhard Hofmann-Wellenhof
Betreuer: Univ.-Prof. Dr. Bernhard Hofmann-Wellenhof
Kurzfassung/Abstract
Die 'precise point positioning' (PPP) Technik kann als eine Erweiterung des 'single point positioning' Modells mit Codemessung für GNSS verstanden werde. Die Hauptunterschiede bestehen in der Verwendung der Trägerphase als Beobachtung und der Nutzung präziser Orbit- und Satellitenuhrendaten anstelle der 'broadcast' Ephemeriden. Die genauesten derartigen Daten werden vom International GNSS Service IGS produziert und sind über das Internet frei zugänglich. In dieser Arbeit wird das mathematische Modell von PPP präsentiert. Drei post-processing PPP Programme, welche die genauesten IGS Daten und Zwei-Frequenz Messungen verwenden, werden untersucht. Bei diesen Programmen handelt es sich um die frei verfügbaren online Dienste 'JPL AutoGIPSY' und 'CSRS-PPP', sowie um eine kommerzielle Software, welche an der Curtin Universität entwickelt wurde und jetzt im Besitz der Firma AAMHatch ist. Für den Test werden statische GPS Daten zwischen 5 und 15 Stunden Beobachtungsdauer mit den PPP Programmen ausgewertet. Die Ergebnisse werden mit Referenzkoordinaten aus einer früheren Netzwerkauswertung mit der Bernese v5 Software verglichen. Dieser Test zeigt, dass Antennen, welche von der PPP Software nicht erkannt werden, eine Hauptfehlerquelle darstellen. Es wird aus diesem Grund geraten, nur Antennen zu verwenden, welche getestet und von der PPP Software erkannt wurden. Die besten Ergebnisse konnten mit dem CSRS-PPP erzielt werden. Bei der statischen Auswertung beträgt der quadratische Mittelwert (RMS) der Differenzen zwischen den PPP Lösungen und den Referenzkoordinaten -13 mm in der Ost-, -21 mm in der Nord- und 30 mm in der vertikalen Komponente. Im zweiten Teil der Arbeit wird das CSRS-PPP verwendet, um zu untersuchen, ob die PPP Methode geeignet ist um ein geodätisches Kontrollnetzwerk zu berechnen wenn längere Messzeiten eingehalten werden (in diesem Fall zwischen 4 und 7 Tagen). Zu diesem Zweck werden die Koordinaten eines geodätischen Netzes mittlerer Größe (46 Stationen) welche mit der Bernese v5 Software berechnet wurden, mit den PPP Lösungen verglichen. Nach dem Ausschluss von 5 Stationen bei denen der Antennentyp nicht erkannt wurde zeigt sich, dass die PPP Koordinaten im Durchschnitt nur 3,3 mm in Ost-, 4,8 mm in Nordrichtung und 11,8 mm in der Höhe abweichen. Bei einem Konfidenzniveau von 99% weicht nur eine CSRS-PPP Lösung signifikant von der Bernese Referenz ab. Diesen Ergebnissen zu Folge, kann PPP verwendet werden um ein geodätisches Kontrollnetzwerk zu berechnen, wenn auch mit geringfügig schlechterer Qualität aufgrund höherer Standardabweichungen.
Die 'precise point positioning' (PPP) Technik kann als eine Erweiterung des 'single point positioning' Modells mit Codemessung für GNSS verstanden werde. Die Hauptunterschiede bestehen in der Verwendung der Trägerphase als Beobachtung und der Nutzung präziser Orbit- und Satellitenuhrendaten anstelle der 'broadcast' Ephemeriden. Die genauesten derartigen Daten werden vom International GNSS Service IGS produziert und sind über das Internet frei zugänglich. In dieser Arbeit wird das mathematische Modell von PPP präsentiert. Drei post-processing PPP Programme, welche die genauesten IGS Daten und Zwei-Frequenz Messungen verwenden, werden untersucht. Bei diesen Programmen handelt es sich um die frei verfügbaren online Dienste 'JPL AutoGIPSY' und 'CSRS-PPP', sowie um eine kommerzielle Software, welche an der Curtin Universität entwickelt wurde und jetzt im Besitz der Firma AAMHatch ist. Für den Test werden statische GPS Daten zwischen 5 und 15 Stunden Beobachtungsdauer mit den PPP Programmen ausgewertet. Die Ergebnisse werden mit Referenzkoordinaten aus einer früheren Netzwerkauswertung mit der Bernese v5 Software verglichen. Dieser Test zeigt, dass Antennen, welche von der PPP Software nicht erkannt werden, eine Hauptfehlerquelle darstellen. Es wird aus diesem Grund geraten, nur Antennen zu verwenden, welche getestet und von der PPP Software erkannt wurden. Die besten Ergebnisse konnten mit dem CSRS-PPP erzielt werden. Bei der statischen Auswertung beträgt der quadratische Mittelwert (RMS) der Differenzen zwischen den PPP Lösungen und den Referenzkoordinaten -13 mm in der Ost-, -21 mm in der Nord- und 30 mm in der vertikalen Komponente. Im zweiten Teil der Arbeit wird das CSRS-PPP verwendet, um zu untersuchen, ob die PPP Methode geeignet ist um ein geodätisches Kontrollnetzwerk zu berechnen wenn längere Messzeiten eingehalten werden (in diesem Fall zwischen 4 und 7 Tagen). Zu diesem Zweck werden die Koordinaten eines geodätischen Netzes mittlerer Größe (46 Stationen) welche mit der Bernese v5 Software berechnet wurden, mit den PPP Lösungen verglichen. Nach dem Ausschluss von 5 Stationen bei denen der Antennentyp nicht erkannt wurde zeigt sich, dass die PPP Koordinaten im Durchschnitt nur 3,3 mm in Ost-, 4,8 mm in Nordrichtung und 11,8 mm in der Höhe abweichen. Bei einem Konfidenzniveau von 99% weicht nur eine CSRS-PPP Lösung signifikant von der Bernese Referenz ab. Diesen Ergebnissen zu Folge, kann PPP verwendet werden um ein geodätisches Kontrollnetzwerk zu berechnen, wenn auch mit geringfügig schlechterer Qualität aufgrund höherer Standardabweichungen.
3D - Landschaftsvisualisierung
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2008
Betreuer: Univ.-Prof. Dr.Mathias Schardt
Betreuer: Univ.-Prof. Dr.Mathias Schardt
Kurzfassung/Abstract
Es wird mit Daten der Firma Wienstrom ein ca. 800 m langes und 200 m breites Gebiet entlang einer Hochspannungsleitung in der Software Visual Nature Studio (VNS) visualisiert. Visualisierungen können von Energieversorgungsunternehmen zur Planung und Überwachung von Stromleitungen und Masten genutzt werden. Ein digitales Geländemodell aus Laserscannerdaten und Orthophotos ist die Grundlage der Visualisierung. Gebäude wurden im dxf - Format importiert, ihre Lage wurde aus Naturbestandsdaten erhalten, ihre Höhe und Dachkanten aus einem digitalen Oberflächenmodell aus Laserscannerdaten und die Textur der Dächer aus den Orthophotos. Die Strommasten wurden mit den Maßen aus den gegebenen CAD - Daten und Orthophotos selbst in AutoCAD konstruiert. Stromleitungen sind zur Visualisierung schon als dxf - Daten gegeben. Die Vegetation wurde auf zwei verschiedene Arten visualisiert, die miteinander verglichen werden. Die erste Möglichkeit ist die Darstellung durch das digitale Oberflächenmodell, aus dem die Gebäude und Stromleitungen entfernt wurden. Als zweite Möglichkeit wurden einzelne Bäume aus dem Oberflächenmodell und den Orthophotos in ArcGIS kartiert und in VNS durch Objektprimitive dargestellt. Alle Visualisierungsergebnisse werden ausführlich diskutiert, und es wird beschrieben, wie die manuellen Arbeitsschritte automatisiert werden könnten. Es wurden auch zwei Animationen erstellt, die Flüge über das Gebiet darstellen, für jede Visualisierungsart der Vegetation eine.
Es wird mit Daten der Firma Wienstrom ein ca. 800 m langes und 200 m breites Gebiet entlang einer Hochspannungsleitung in der Software Visual Nature Studio (VNS) visualisiert. Visualisierungen können von Energieversorgungsunternehmen zur Planung und Überwachung von Stromleitungen und Masten genutzt werden. Ein digitales Geländemodell aus Laserscannerdaten und Orthophotos ist die Grundlage der Visualisierung. Gebäude wurden im dxf - Format importiert, ihre Lage wurde aus Naturbestandsdaten erhalten, ihre Höhe und Dachkanten aus einem digitalen Oberflächenmodell aus Laserscannerdaten und die Textur der Dächer aus den Orthophotos. Die Strommasten wurden mit den Maßen aus den gegebenen CAD - Daten und Orthophotos selbst in AutoCAD konstruiert. Stromleitungen sind zur Visualisierung schon als dxf - Daten gegeben. Die Vegetation wurde auf zwei verschiedene Arten visualisiert, die miteinander verglichen werden. Die erste Möglichkeit ist die Darstellung durch das digitale Oberflächenmodell, aus dem die Gebäude und Stromleitungen entfernt wurden. Als zweite Möglichkeit wurden einzelne Bäume aus dem Oberflächenmodell und den Orthophotos in ArcGIS kartiert und in VNS durch Objektprimitive dargestellt. Alle Visualisierungsergebnisse werden ausführlich diskutiert, und es wird beschrieben, wie die manuellen Arbeitsschritte automatisiert werden könnten. Es wurden auch zwei Animationen erstellt, die Flüge über das Gebiet darstellen, für jede Visualisierungsart der Vegetation eine.
Aufbau eines Kontrollpunktfeldes für den Positionierungsdienst WEP
Institut für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2008
Begutachter: o.Univ.-Prof. Dr.Ing. Kahmen Heribert
Betreuer: Dipl.-Ing. Dr.techn. Michaela Haberler-Weber
Begutachter: o.Univ.-Prof. Dr.Ing. Kahmen Heribert
Betreuer: Dipl.-Ing. Dr.techn. Michaela Haberler-Weber
Kurzfassung/Abstract
Die Firma Wienstrom betreibt seit einigen Jahren ein eigenes permanent operierendes Referenzstationsnetzwerk (WEP). Mit diesem Netzwerk ist eine Zentimeter-genaue RTK-Positionierung im gesamten Versorgungsgebiet möglich. Um die cm-Genauigkeit auch gewährleisten zu können, sind regelmäßige Kontrollmessungen notwendig. Ziel dieser Diplomarbeit ist der Aufbau eines Kontrollpunktfeldes, um diese Kontrollmessung durchführen zu können.
Der theoretische Teil beschäftigt sich mit dem Prinzip der relativen Positionierung, mit dem Aufbau eines Referenzstationsnetzwerks und deren Korrekturmodellen. Weiters wird noch der Netzaufbau, die Datenaufbereitung und die Einsatzmöglichkeiten des WEP behandelt.
Im Hauptteil der Arbeit wird die praktische Vorgangsweise einer Netzmessung mittels GPS beschrieben. Zuerst erfolgt die Planung der GPS-Kampagne, dann die Vorerkundung vor Ort und die Messung des Punktnetzes. Die Bestimmung der Netzpunktkoordinaten im ITRF2000 sowie Landessystem MGI34 erfolgt mit der Auswertesoftware Leica Geo Office. Abschließend werden die berechneten Koordinaten der Firma Wienstrom zum Zweck der Kontrollmessung zur Verfügung gestellt.
Die Firma Wienstrom betreibt seit einigen Jahren ein eigenes permanent operierendes Referenzstationsnetzwerk (WEP). Mit diesem Netzwerk ist eine Zentimeter-genaue RTK-Positionierung im gesamten Versorgungsgebiet möglich. Um die cm-Genauigkeit auch gewährleisten zu können, sind regelmäßige Kontrollmessungen notwendig. Ziel dieser Diplomarbeit ist der Aufbau eines Kontrollpunktfeldes, um diese Kontrollmessung durchführen zu können.
Der theoretische Teil beschäftigt sich mit dem Prinzip der relativen Positionierung, mit dem Aufbau eines Referenzstationsnetzwerks und deren Korrekturmodellen. Weiters wird noch der Netzaufbau, die Datenaufbereitung und die Einsatzmöglichkeiten des WEP behandelt.
Im Hauptteil der Arbeit wird die praktische Vorgangsweise einer Netzmessung mittels GPS beschrieben. Zuerst erfolgt die Planung der GPS-Kampagne, dann die Vorerkundung vor Ort und die Messung des Punktnetzes. Die Bestimmung der Netzpunktkoordinaten im ITRF2000 sowie Landessystem MGI34 erfolgt mit der Auswertesoftware Leica Geo Office. Abschließend werden die berechneten Koordinaten der Firma Wienstrom zum Zweck der Kontrollmessung zur Verfügung gestellt.
Landschaftsanalyse in der Steiermark
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gernot Paulus (FH Technikum Kärnten), Dietlind Proske, Wilfried Sommer (Steiermärkische Landesregierung)
Betreuer: Gernot Paulus (FH Technikum Kärnten), Dietlind Proske, Wilfried Sommer (Steiermärkische Landesregierung)
Kurzfassung/Abstract
Durch die voranschreitende Landschaftszerschneidung in der Steiermark und dem damit verbundenen Artenverlust bietet sich eine Landschaftsanalyse in der Südsteiermark an.
Mit Methoden der Fernerkundung und Geoinformation sollen der effektive Grad der Landschaftsfragmentierung, verbleibende Kernflächen und Korridore als potenielle Migrationsrouten zwischen den Europaschutzgebieten "Demmerkogel-Südhänge, Wellinggraben mit Sulm-, Saggau- und Laßnitzabschnitten und Pößnitzbach" und "Teile des südoststeirischen Hügellandes inklusive Höll und Grabenlandbäche" implementiert werden.
Aufgrund des pilotären Charakters der Landschaftsanalyse in der Steiermark am Amt der Steiermärkischen Landesregierung werden zwei divergierende Zugänge der fernerkundungsgestützten Oberflächenbeschreibung forciert. Eine bestehende Landnutzungsklassifikation soll in dieser Form erste Analyseergebnisse dieser naturschutzfachlichen Projektorientierung liefern. Eine multispektrale Satellitenbildszene des Studienareals dient danach als Fundament einer neuen, multispektralen, CORINE-nahen Landbedeckungsklassifizierung mittels ERDAS Imagine 9.1.
Die daran anknüpfende Landschaftsanalyse, untergliedert sich aufgrund der divergierenden Datengrundlage in Landnutzungs- bzw. Landbedeckungsanalyse. In deren Verlauf werden über die, in vLATE 1.1 und Patch Analyst 3.1, eingebundenen landscape metrics der effektive Fragmentierungsgrad und die verbleibenden Kernflächen berechnet. Zusätzlich inkludieren beide Studien jeweils eine ArcInfo-gestützte Korridoranalyse basierend auf migrationsspezifisch gewichteten Vegetationsklassen.
Die aggregierte Effektive Maschenweite potentieller Habitatklassen als statistisches Merkmal der "momentanen" Fragmentierungssituation resultiert in einer Reduktion um 13 % gegenüber der Landnutzungsanalyse auf 20,21 km².
Der mittlere Flächenverlust potentieller Habitatklassen sinkt gegenüber der Landnutzungsanalyse um ganze fünf Prozentpunkte, wonach gemäß dem Szenario der Kernflächenstudie etwa 57 % der selektierten Habitate verschwinden würden.
Trotz der Reduzierung der gesamten Fortbewegungskosten um 15.937 auf 366.801 innerhalb der Landbedeckungsanalyse lässt sich ein allgemeiner Konsens der Situierung beider Korridore feststellen. Die potentiellen, "optimalen" Ausbreitungsrouten beider Korridoranalysen verlaufen stets vom südwestlichen Ende des "Südoststeirischen Hügellandes" nach Westen, umwandern dabei die Ortschaften Wittmannsdorf, Siebing und Gabersdorf und münden südlich von Wagna in das Europaschutzgebiet "Demmerkogel".
Zusammenfassend ist auch nicht zuletzt aufgrund der Ergebnisse, eine starke Korrelation zwischen den anthropogenen Hindernissen und den einzelnen Aufgabenstellungen erkennbar. So beeinflussen Barrieren im Untersuchungsgebiet nachweislich sowohl den Grad der Landschaftszerschneidung und die relative Ausdehnung von adäquaten Lebensräumen, als auch die Identifizierung von Korridoren.
Durch die voranschreitende Landschaftszerschneidung in der Steiermark und dem damit verbundenen Artenverlust bietet sich eine Landschaftsanalyse in der Südsteiermark an.
Mit Methoden der Fernerkundung und Geoinformation sollen der effektive Grad der Landschaftsfragmentierung, verbleibende Kernflächen und Korridore als potenielle Migrationsrouten zwischen den Europaschutzgebieten "Demmerkogel-Südhänge, Wellinggraben mit Sulm-, Saggau- und Laßnitzabschnitten und Pößnitzbach" und "Teile des südoststeirischen Hügellandes inklusive Höll und Grabenlandbäche" implementiert werden.
Aufgrund des pilotären Charakters der Landschaftsanalyse in der Steiermark am Amt der Steiermärkischen Landesregierung werden zwei divergierende Zugänge der fernerkundungsgestützten Oberflächenbeschreibung forciert. Eine bestehende Landnutzungsklassifikation soll in dieser Form erste Analyseergebnisse dieser naturschutzfachlichen Projektorientierung liefern. Eine multispektrale Satellitenbildszene des Studienareals dient danach als Fundament einer neuen, multispektralen, CORINE-nahen Landbedeckungsklassifizierung mittels ERDAS Imagine 9.1.
Die daran anknüpfende Landschaftsanalyse, untergliedert sich aufgrund der divergierenden Datengrundlage in Landnutzungs- bzw. Landbedeckungsanalyse. In deren Verlauf werden über die, in vLATE 1.1 und Patch Analyst 3.1, eingebundenen landscape metrics der effektive Fragmentierungsgrad und die verbleibenden Kernflächen berechnet. Zusätzlich inkludieren beide Studien jeweils eine ArcInfo-gestützte Korridoranalyse basierend auf migrationsspezifisch gewichteten Vegetationsklassen.
Die aggregierte Effektive Maschenweite potentieller Habitatklassen als statistisches Merkmal der "momentanen" Fragmentierungssituation resultiert in einer Reduktion um 13 % gegenüber der Landnutzungsanalyse auf 20,21 km².
Der mittlere Flächenverlust potentieller Habitatklassen sinkt gegenüber der Landnutzungsanalyse um ganze fünf Prozentpunkte, wonach gemäß dem Szenario der Kernflächenstudie etwa 57 % der selektierten Habitate verschwinden würden.
Trotz der Reduzierung der gesamten Fortbewegungskosten um 15.937 auf 366.801 innerhalb der Landbedeckungsanalyse lässt sich ein allgemeiner Konsens der Situierung beider Korridore feststellen. Die potentiellen, "optimalen" Ausbreitungsrouten beider Korridoranalysen verlaufen stets vom südwestlichen Ende des "Südoststeirischen Hügellandes" nach Westen, umwandern dabei die Ortschaften Wittmannsdorf, Siebing und Gabersdorf und münden südlich von Wagna in das Europaschutzgebiet "Demmerkogel".
Zusammenfassend ist auch nicht zuletzt aufgrund der Ergebnisse, eine starke Korrelation zwischen den anthropogenen Hindernissen und den einzelnen Aufgabenstellungen erkennbar. So beeinflussen Barrieren im Untersuchungsgebiet nachweislich sowohl den Grad der Landschaftszerschneidung und die relative Ausdehnung von adäquaten Lebensräumen, als auch die Identifizierung von Korridoren.
Application of SDSS Methods for Site selection of Small Hydropower Plants in Bulgaria
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2008
Betreuer: Peter Mandl (Universität Klagenfurt), Gernot Paulus (FH Technikum Kärnten)
Betreuer: Peter Mandl (Universität Klagenfurt), Gernot Paulus (FH Technikum Kärnten)
Kurzfassung/Abstract
The focus of this thesis is to find sites in Bulgaria for Small Hydropower Plants with the software Idrisi Andes. The idea to write this paper happened to me one day when I read an article concerning Bulgaria. I noticed that the country has an important problem of energy dependency. Bulgaria is a small country with an interesting relief, between a sea and high mountains.
In the first part, the past and present situations are explained.
The second part explains why the Small Hydropower Plant can be an interesting answer to the problem, even if the current government has decided to build a new Nuclear Power Plant.
The third part is more technical. The idea is to create a model with the software Idrisi Andes which applied to Bulgaria will indicate potential sites for new SHP with the help of a Multi-Criteria Analysis. The toughness for this project is to obtain the Bulgaria data, but with good manipulations, the running model enables to obtain a good result. The created model integrates different parameters as technical constraints. In the decision maker of this research, the existing and creating criteria must be studied to obtain the best result as possible. According to the criteria quality, the SAW method can be used.
The final result is a map of Bulgaria representing the potential sites for new SHP and it can be verified with Google Earth, just to prove the quality of the output.
The quality of the final result depends on the quality of the data and their MCA transformation. The software Idrisi Andes is very useful for this kind of task.
The focus of this thesis is to find sites in Bulgaria for Small Hydropower Plants with the software Idrisi Andes. The idea to write this paper happened to me one day when I read an article concerning Bulgaria. I noticed that the country has an important problem of energy dependency. Bulgaria is a small country with an interesting relief, between a sea and high mountains.
In the first part, the past and present situations are explained.
The second part explains why the Small Hydropower Plant can be an interesting answer to the problem, even if the current government has decided to build a new Nuclear Power Plant.
The third part is more technical. The idea is to create a model with the software Idrisi Andes which applied to Bulgaria will indicate potential sites for new SHP with the help of a Multi-Criteria Analysis. The toughness for this project is to obtain the Bulgaria data, but with good manipulations, the running model enables to obtain a good result. The created model integrates different parameters as technical constraints. In the decision maker of this research, the existing and creating criteria must be studied to obtain the best result as possible. According to the criteria quality, the SAW method can be used.
The final result is a map of Bulgaria representing the potential sites for new SHP and it can be verified with Google Earth, just to prove the quality of the output.
The quality of the final result depends on the quality of the data and their MCA transformation. The software Idrisi Andes is very useful for this kind of task.
Der digitale Lärmbelastungskataster als Entscheidungsgrundlage zur regionalen Raumplanung von Gemeinden
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Michael Leitner (Louisiana State University; USA)/ Hanspeter Thoma (Plancad Informatik AG)
Betreuer: Michael Leitner (Louisiana State University; USA)/ Hanspeter Thoma (Plancad Informatik AG)
Kurzfassung/Abstract
Der "digitale Lärmbelastungskataster" ist ein Informationssystem, das unter Berücksichtigung der gesetzlichen Rahmenbedingungen der Schweiz als Entscheidungsunterstützung in der Verkehrskonzeption dient. Die Umsetzung des Projekts gliedert sich in Datenbeschaffung, Datenaufbereitung und Implementierung. Als Testgebiet für den Lärmbelastungskataster dient die Gemeinde Egnach im Kanton Thurgau und als Basislärmquelle wurde der Straßenverkehr herangezogen. Der Grund für die Verwendung dieser Basislärmquelle ist die Tatsache, dass der Straßenverkehrslärm als dominierende Lärmquelle sowohl in der Schweiz als auch in der Europäischen Union gilt (Hofmann, 2005).
Generell wird Lärm in Form des motorisierten Verkehrs, als lästig erlebt. Die Lärmbekämpfung an der Quelle, wie etwa die Verwendung von Flüsterasphalt oder der Bau von Lärmschutzwänden, ist in vielen Fällen der letzte Ausweg (Hofmann, 2005).
Die Themen, die in dieser Diplomarbeit behandelt werden, gliedern sich in erster Linie in die Erstellung des Lärmbelastungskatasters, sowie in die Diskussion von sozialen und gesundheitlichen Aspekte, die mit der Lärmausbreitung verursacht durch den Straßenverkehr einhergehen.
Als Grundlage der Web-GIS Applikation diente ein Lärmemissionskataster aus dem Jahr 1995, der für die Gemeinde Egnach erstellt wurde. Dieser analoge Kataster wurde in Form einer Übersichtskarte verbunden mit den Lärminformationen, welche den Straßenabschnitten zugeteilt wurden, publiziert. Im Gegensatz dazu sollte der digitale Lärmbelastungskataster nicht nur die Emissionen enthalten, welche direkt am Straßenabschnitt berechnet werden, sondern auch die Immissionen, die an den umliegenden Wohngebäuden gelten.
Zusammenfassend belegen die Ergebnisse dieser Diplomarbeit, dass durch einen Vergleich der Emissionswerte aus dem Jahr 1995 und 2007 eine Zunahme der Lärmemissionen von ca. 2 Dezibel dB(A) stattgefunden hat. Ebenso hat der Gesamtstraßenverkehr in den vergangenen 12 Jahren um ca. 20% zugenommen.
Der "digitale Lärmbelastungskataster" ist ein Informationssystem, das unter Berücksichtigung der gesetzlichen Rahmenbedingungen der Schweiz als Entscheidungsunterstützung in der Verkehrskonzeption dient. Die Umsetzung des Projekts gliedert sich in Datenbeschaffung, Datenaufbereitung und Implementierung. Als Testgebiet für den Lärmbelastungskataster dient die Gemeinde Egnach im Kanton Thurgau und als Basislärmquelle wurde der Straßenverkehr herangezogen. Der Grund für die Verwendung dieser Basislärmquelle ist die Tatsache, dass der Straßenverkehrslärm als dominierende Lärmquelle sowohl in der Schweiz als auch in der Europäischen Union gilt (Hofmann, 2005).
Generell wird Lärm in Form des motorisierten Verkehrs, als lästig erlebt. Die Lärmbekämpfung an der Quelle, wie etwa die Verwendung von Flüsterasphalt oder der Bau von Lärmschutzwänden, ist in vielen Fällen der letzte Ausweg (Hofmann, 2005).
Die Themen, die in dieser Diplomarbeit behandelt werden, gliedern sich in erster Linie in die Erstellung des Lärmbelastungskatasters, sowie in die Diskussion von sozialen und gesundheitlichen Aspekte, die mit der Lärmausbreitung verursacht durch den Straßenverkehr einhergehen.
Als Grundlage der Web-GIS Applikation diente ein Lärmemissionskataster aus dem Jahr 1995, der für die Gemeinde Egnach erstellt wurde. Dieser analoge Kataster wurde in Form einer Übersichtskarte verbunden mit den Lärminformationen, welche den Straßenabschnitten zugeteilt wurden, publiziert. Im Gegensatz dazu sollte der digitale Lärmbelastungskataster nicht nur die Emissionen enthalten, welche direkt am Straßenabschnitt berechnet werden, sondern auch die Immissionen, die an den umliegenden Wohngebäuden gelten.
Zusammenfassend belegen die Ergebnisse dieser Diplomarbeit, dass durch einen Vergleich der Emissionswerte aus dem Jahr 1995 und 2007 eine Zunahme der Lärmemissionen von ca. 2 Dezibel dB(A) stattgefunden hat. Ebenso hat der Gesamtstraßenverkehr in den vergangenen 12 Jahren um ca. 20% zugenommen.
Navigationsunterstützung für Fußgänger in großmaßstäbigen Mapserverlösungen
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Christian Menard (FH Technikum Kärnten), Markus Jobst (TU Wien)
Betreuer: Christian Menard (FH Technikum Kärnten), Markus Jobst (TU Wien)
Kurzfassung/Abstract
Die Motivation hinter dieser Diplomarbeit ist es, den für Fußgänger vorteilhafteren Weg einer gebäudebasierten Darstellung von digitalen Karten zu untersuchen. Der Hauptfokus liegt darauf, wie verschiedene Maßstabsebenen verwendet werden, um einen effizienten Informationsfluss zu gewährleisten.
Das bedeutet: Wie sollen Zoomstufen in einem Fußgängernavigationssystem eingesetzt werden, um so wenig wie möglich Informationsverlust zu haben? Damit soll das System einen optimalen visuellen und kognitiven Nutzen für den Benutzer mit sich bringen.
In dieser Arbeit wird eine Maßstabsreihe von 1:35000 bis 1:1500 auf Basis einer Serverlösung evaluiert und getestet. Die Hypothese stützt sich dabei auf allgemeine technische Erkenntnisse anderer Kartographen. Zusätzlich wird auf Grund unzureichender Mittel eine Evaluierung durch Expert-User (heuristische Evaluierung) durchgeführt um die Resultate zu stützen. Das Vergleichen von bereits existierenden Online-Navigationssystemen mit der eigens entwickelten Mapserverlösung erleichtert die Herangehensweise an das Problem.
Aufgrund der resultierenden Ergebnisse soll eine Entscheidung getroffen werden, welcher Informationsfluss sich in Fußgänger-Navigationssystemen am besten dazu eignet, einem Benutzer Kartenobjekte so gut wie möglich perzeptiv wahrnehmbar zu machen.
Als Ergebnis gibt die Analyse der Maßstabsreihe Auskunft darüber, welche Darstellungsmethode sich am besten für Fußgänger eignet. Das heißt, dass man schließlich eine Grundlage zur Entwicklung von Fußgängernavigationssystemen hat, um Daten bestmöglich von Anfang an für Fußgänger aufzubereiten.
Die Daten sollen so dargestellt werden, dass diese visuell bestmöglich wahrnehmbar sind. Dabei ist bei der Erstellung vor allem der Erhalt von markanten Punkten im Raum zu berücksichtigen. Da dadurch mehr Informationen auf einer Karte dargestellt werden, wird als Ergebnis präsentiert, ab wann welche Daten visualisiert werden sollen und wann nicht. Dies betrifft vor allem den Zusammenhang von Gebäude- und Straßendaten. Die heuristische Evaluierung des eigenen Systems im Vergleich zu existierenden Systemen verdeutlicht die verschiedenen Pros und Kontras. Damit ist es möglich, sich auf empirische Art und Weise einer best-möglichen Methode zu nähern. Das Ergebnis hat interessanter Weise bestätigt, dass eine grundrisstreue Darstellung von Gebäuden in verhältnismäßig kleinen Maßstabsbereichen (≤1:16500) durchaus noch gewünscht ist.
Anhand der Untersuchungen in dieser Arbeit wird gezeigt, welche Unterschiede es bei der Entwicklung einer digitalen Karte gibt, wenn man die Zielgruppe Fußgänger betrachtet. Durch die kognitiven und inhaltlichen Unterschiede kann man Navigationssysteme für KFZ mit Navigationssystemen für Fußgänger nur auf unterster Basis miteinander vergleichen. Die Unterschiede von Untersuchungen verschiedenster Kartographen, verglichen mit den Analyseergebnissen dieser Arbeit zeigen, dass das Thema der Fußgängernavigation noch lange nicht ausreichend erforscht ist. Karteninhalt, Kartenzweck, und Kartenzielgruppen sind dabei des Öfteren derartig unterschiedlich, dass man nicht verallgemeinern kann, welcher Informationsfluss in einer Karte schließlich der generell Beste ist.
Die Motivation hinter dieser Diplomarbeit ist es, den für Fußgänger vorteilhafteren Weg einer gebäudebasierten Darstellung von digitalen Karten zu untersuchen. Der Hauptfokus liegt darauf, wie verschiedene Maßstabsebenen verwendet werden, um einen effizienten Informationsfluss zu gewährleisten.
Das bedeutet: Wie sollen Zoomstufen in einem Fußgängernavigationssystem eingesetzt werden, um so wenig wie möglich Informationsverlust zu haben? Damit soll das System einen optimalen visuellen und kognitiven Nutzen für den Benutzer mit sich bringen.
In dieser Arbeit wird eine Maßstabsreihe von 1:35000 bis 1:1500 auf Basis einer Serverlösung evaluiert und getestet. Die Hypothese stützt sich dabei auf allgemeine technische Erkenntnisse anderer Kartographen. Zusätzlich wird auf Grund unzureichender Mittel eine Evaluierung durch Expert-User (heuristische Evaluierung) durchgeführt um die Resultate zu stützen. Das Vergleichen von bereits existierenden Online-Navigationssystemen mit der eigens entwickelten Mapserverlösung erleichtert die Herangehensweise an das Problem.
Aufgrund der resultierenden Ergebnisse soll eine Entscheidung getroffen werden, welcher Informationsfluss sich in Fußgänger-Navigationssystemen am besten dazu eignet, einem Benutzer Kartenobjekte so gut wie möglich perzeptiv wahrnehmbar zu machen.
Als Ergebnis gibt die Analyse der Maßstabsreihe Auskunft darüber, welche Darstellungsmethode sich am besten für Fußgänger eignet. Das heißt, dass man schließlich eine Grundlage zur Entwicklung von Fußgängernavigationssystemen hat, um Daten bestmöglich von Anfang an für Fußgänger aufzubereiten.
Die Daten sollen so dargestellt werden, dass diese visuell bestmöglich wahrnehmbar sind. Dabei ist bei der Erstellung vor allem der Erhalt von markanten Punkten im Raum zu berücksichtigen. Da dadurch mehr Informationen auf einer Karte dargestellt werden, wird als Ergebnis präsentiert, ab wann welche Daten visualisiert werden sollen und wann nicht. Dies betrifft vor allem den Zusammenhang von Gebäude- und Straßendaten. Die heuristische Evaluierung des eigenen Systems im Vergleich zu existierenden Systemen verdeutlicht die verschiedenen Pros und Kontras. Damit ist es möglich, sich auf empirische Art und Weise einer best-möglichen Methode zu nähern. Das Ergebnis hat interessanter Weise bestätigt, dass eine grundrisstreue Darstellung von Gebäuden in verhältnismäßig kleinen Maßstabsbereichen (≤1:16500) durchaus noch gewünscht ist.
Anhand der Untersuchungen in dieser Arbeit wird gezeigt, welche Unterschiede es bei der Entwicklung einer digitalen Karte gibt, wenn man die Zielgruppe Fußgänger betrachtet. Durch die kognitiven und inhaltlichen Unterschiede kann man Navigationssysteme für KFZ mit Navigationssystemen für Fußgänger nur auf unterster Basis miteinander vergleichen. Die Unterschiede von Untersuchungen verschiedenster Kartographen, verglichen mit den Analyseergebnissen dieser Arbeit zeigen, dass das Thema der Fußgängernavigation noch lange nicht ausreichend erforscht ist. Karteninhalt, Kartenzweck, und Kartenzielgruppen sind dabei des Öfteren derartig unterschiedlich, dass man nicht verallgemeinern kann, welcher Informationsfluss in einer Karte schließlich der generell Beste ist.
User Validation of Virtual Globe Clients Google Earth and ArcGIS Explorer on Kashmir Earthquake 2005 Scenario
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gernot Paulus (FH Technikum Kärnten), Stefan Lang (Paris-Lodron-Universität Salzburg)
Betreuer: Gernot Paulus (FH Technikum Kärnten), Stefan Lang (Paris-Lodron-Universität Salzburg)
Kurzfassung/Abstract
Diese Diplomarbeit geht es um Benutzer Validierung von Virtual Kunden Globus Google Earth und ArcGIS Explorer als Katastrophen-Management-Tools, die auf Erdbeben in Kaschmir 2005-Szenario getestet sind. Es handelt sich um eine Fortsetzung der Forschung der EG-finanzierten Projekts GMOSS, Work Package: Data Integration und Visualisierung, Task: Geo-Visualisierung Benchmark für Echtzeit-Anwendungen.
Erhältlicher Datensatz über Erdbeben in Kaschmir 2005 Szenario für die Forschung in Diplomarbeit wurden von GMOSS Network of Excellence besorgt. Datenbestand umfasst verschiedene Arten von Satellitenbildern und Vektor-Formate.
Validierung von Virtual Globe Kunden ist für den "lokalen" Benutzer konzipiert und wurde in SUPARCO Institution in Pakistan beendet.
Für die Zwecke der Benutzer die Validierung der Forschung wurde Validierungskriterien Liste erstellt. Es umfasst die Validierung von Importdaten, Daten-Bearbeitung und Manipulation, Navigation Verwendbarkeit, Verwendbarkeit-Tools und Visualisierung Qualität. ArcGIS Server Globus-Service wurde errichtet, um den Zugang zu Daten und Benutzern zu gewährleisten und urheberrechtlichen Schutz des verwendeten Datensatz zu versichern.
User-Reaktionen auf Validierungskriterien Liste haben Validierung Werte gegeben, um die Schlussfolgerungen über die Eignung eines solchen virtuellen Globus Kunden und den Wert einer solchen Forschung zu schließen.
Diese Diplomarbeit geht es um Benutzer Validierung von Virtual Kunden Globus Google Earth und ArcGIS Explorer als Katastrophen-Management-Tools, die auf Erdbeben in Kaschmir 2005-Szenario getestet sind. Es handelt sich um eine Fortsetzung der Forschung der EG-finanzierten Projekts GMOSS, Work Package: Data Integration und Visualisierung, Task: Geo-Visualisierung Benchmark für Echtzeit-Anwendungen.
Erhältlicher Datensatz über Erdbeben in Kaschmir 2005 Szenario für die Forschung in Diplomarbeit wurden von GMOSS Network of Excellence besorgt. Datenbestand umfasst verschiedene Arten von Satellitenbildern und Vektor-Formate.
Validierung von Virtual Globe Kunden ist für den "lokalen" Benutzer konzipiert und wurde in SUPARCO Institution in Pakistan beendet.
Für die Zwecke der Benutzer die Validierung der Forschung wurde Validierungskriterien Liste erstellt. Es umfasst die Validierung von Importdaten, Daten-Bearbeitung und Manipulation, Navigation Verwendbarkeit, Verwendbarkeit-Tools und Visualisierung Qualität. ArcGIS Server Globus-Service wurde errichtet, um den Zugang zu Daten und Benutzern zu gewährleisten und urheberrechtlichen Schutz des verwendeten Datensatz zu versichern.
User-Reaktionen auf Validierungskriterien Liste haben Validierung Werte gegeben, um die Schlussfolgerungen über die Eignung eines solchen virtuellen Globus Kunden und den Wert einer solchen Forschung zu schließen.
Towards the development of an interactive Internet based Reef Geo Information System
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Christian Menard (FH Technikum Kärnten), Gerd R. Dowideit (University of Queensland; Australien)
Betreuer: Christian Menard (FH Technikum Kärnten), Gerd R. Dowideit (University of Queensland; Australien)
Kurzfassung/Abstract
Das Ziel dieser Diplomarbeit ist die Entwicklung eines Webbasierten Geoinformationssystem (GIS). Das Design des GIS ist auf die Bedürfnisse des Endnutzers, The University of Queensland (UQ), abgestimmt. Im speziellen wird auf die Wünsche der Anwender des Systems wie Forscher, Studenten und auch der Öffentlichkeit eingegangen. Das GIS bietet wertvolle Unterstützung bei Studien über Heron Island um weiteres Wissen über die Geomorphologie, das Klima, die Hydrologie, die Flora, Fauna und die Auswirkungen der menschlichen Einflüsse auf die Insel zu erlangen. Die Informationen die durch diese Untersuchungen generiert werden sind essentiell um eine nachhaltige Entwicklung und Bewirtschaftung der Insel, des Riffs, sowie dem nahe liegenden Festland zu sichern. Schutz und Nachhaltigkeit können durch erfolgreiches Management dieser Bereiche durch Einsetzen des GIS erreicht werden. Von besonderer Bedeutung sind in diesem Zusammenhang die Erwärmung der Erdatmosphäre, das Verbleichen der Korallen sowie die intensive touristische Nutzung. Diese Faktoren können das empfindliche Ökosystem von Heron Island leicht aus dem Gleichgewicht bringen.
Die Objektrelationale Datenbank PostgreSQL mit der Erweiterung PostGIS wird implementiert. PostGIS bezeichnet die räumliche Erweiterung zur Speicherung und Verwaltung von Geodaten in der Open Source-Serverdatenbank PostgreSQL. Durch PostGIS kann PostgreSQL als räumliches Datenbank-Backend für das das GIS eingesetzt werden. Diese Datenbank ist ein wichtiges Werkzeug für die weiter Forschung. Dadurch ist es möglich Benutzer verschiedene Rechte auf das Web-GIS zu ermöglichen. Das Web GIS basiert auf der open source Software Cartoweb, dem WebServer Apache und dem UMN MapServer.
Im Heron Island Web GIS hat der Benutzer eine Vielfalt an Navigationsmöglichkeiten. Wie zum Beispiel mit der Übersichtskarten, einem Drop-down Menü "Scale" und "Search". Dadurch kann der Benutzer die Karte einstellen wie er sie benötigt. Mit dem Query tool kann der Benutzer nach Objekten suchen oder ein Viereck aufziehen indem sich die Abzufragenden Punkte befinden. Die Query Funktion ist wichtig, da Forscher anhand der Ergebnisse von der Abfrage auf Forschungsfragen eingehen können. Weiters bietet das Heron Island Web GIS die Möglichkeit Punkte, Linien und Polygone zu zeichnen und diese zu Beschriften. Mit diesen Funktionen ist es möglich Bereiche für studentische Arbeiten vor zu definieren. Weiters ist die Funktion "mask" vorhanden mit der man alle Gebiete die man nicht benötigt ausblenden kann.
Das HIWG ermöglicht Mitarbeiter und Studenten der UQ durch das Intra- oder Internet Zugriff auf die Daten des HIWG. Die Benutzer des HIWG können eine interaktive Karte befragen, die verschiedene, studien-relevante Themen enthält. Des Weiteren können Studenten und Mitarbeiter ihre eigenen Arbeitsgebiete definieren und mit Informationen ergänzen.
Das Ziel dieser Diplomarbeit ist die Entwicklung eines Webbasierten Geoinformationssystem (GIS). Das Design des GIS ist auf die Bedürfnisse des Endnutzers, The University of Queensland (UQ), abgestimmt. Im speziellen wird auf die Wünsche der Anwender des Systems wie Forscher, Studenten und auch der Öffentlichkeit eingegangen. Das GIS bietet wertvolle Unterstützung bei Studien über Heron Island um weiteres Wissen über die Geomorphologie, das Klima, die Hydrologie, die Flora, Fauna und die Auswirkungen der menschlichen Einflüsse auf die Insel zu erlangen. Die Informationen die durch diese Untersuchungen generiert werden sind essentiell um eine nachhaltige Entwicklung und Bewirtschaftung der Insel, des Riffs, sowie dem nahe liegenden Festland zu sichern. Schutz und Nachhaltigkeit können durch erfolgreiches Management dieser Bereiche durch Einsetzen des GIS erreicht werden. Von besonderer Bedeutung sind in diesem Zusammenhang die Erwärmung der Erdatmosphäre, das Verbleichen der Korallen sowie die intensive touristische Nutzung. Diese Faktoren können das empfindliche Ökosystem von Heron Island leicht aus dem Gleichgewicht bringen.
Die Objektrelationale Datenbank PostgreSQL mit der Erweiterung PostGIS wird implementiert. PostGIS bezeichnet die räumliche Erweiterung zur Speicherung und Verwaltung von Geodaten in der Open Source-Serverdatenbank PostgreSQL. Durch PostGIS kann PostgreSQL als räumliches Datenbank-Backend für das das GIS eingesetzt werden. Diese Datenbank ist ein wichtiges Werkzeug für die weiter Forschung. Dadurch ist es möglich Benutzer verschiedene Rechte auf das Web-GIS zu ermöglichen. Das Web GIS basiert auf der open source Software Cartoweb, dem WebServer Apache und dem UMN MapServer.
Im Heron Island Web GIS hat der Benutzer eine Vielfalt an Navigationsmöglichkeiten. Wie zum Beispiel mit der Übersichtskarten, einem Drop-down Menü "Scale" und "Search". Dadurch kann der Benutzer die Karte einstellen wie er sie benötigt. Mit dem Query tool kann der Benutzer nach Objekten suchen oder ein Viereck aufziehen indem sich die Abzufragenden Punkte befinden. Die Query Funktion ist wichtig, da Forscher anhand der Ergebnisse von der Abfrage auf Forschungsfragen eingehen können. Weiters bietet das Heron Island Web GIS die Möglichkeit Punkte, Linien und Polygone zu zeichnen und diese zu Beschriften. Mit diesen Funktionen ist es möglich Bereiche für studentische Arbeiten vor zu definieren. Weiters ist die Funktion "mask" vorhanden mit der man alle Gebiete die man nicht benötigt ausblenden kann.
Das HIWG ermöglicht Mitarbeiter und Studenten der UQ durch das Intra- oder Internet Zugriff auf die Daten des HIWG. Die Benutzer des HIWG können eine interaktive Karte befragen, die verschiedene, studien-relevante Themen enthält. Des Weiteren können Studenten und Mitarbeiter ihre eigenen Arbeitsgebiete definieren und mit Informationen ergänzen.
eGame - Konzept einer Multisensorplattform zur Überwachung von Wildtieren
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2008
Betreuer: Univ.-Prof. Dr.Mathias Schardt
Betreuer: Univ.-Prof. Dr.Mathias Schardt
Kurzfassung/Abstract
Diese Masterarbeit entstand im Rahmen des Projekts eGame am Institut für Digitale Bildverarbeitung des Joanneum Research. eGame ist ein interdisziplinäres Projekt zur Entwicklung eines Multisensor-Telemetriesystems (Telemetrie-Halsband) zur Überwachung von Wildtieren (primär Rotwild). Die integrierten Sensoren umfassen einen GPS-Empfänger zur Positionsbestimmung, eine digitale Kamera zur Aufnahme von Bildmaterial, einen Temperatursensor und eine Kommunikationseinheit zur Übertragung der Daten an den Benutzer bzw. bei Bedarf zur interaktiven Steuerung der Komponenten. Diese Masterarbeit beschäftigt sich mit dem Design und Gesamtkonzept des Telemetrie-Halsbandes und der Auswahl geeigneter Hardware (primär GPS-Empfänger und GPS-Datenlogger) zum Betrieb des Systems. Ein wesentlicher Teil war der Test des GPS-Empfängers unter einsatznahen Bedingungen. Für diese Untersuchungen wurde ein Testszenario entworfen, das die Leistung des High Sensitivity GPS-Empfängers unter verschiedenen Vegetationstypen entsprechend der Lebensräume der Tiere aufzeigen soll. Zusätzlich wurde die Auswirkung der Abschwächung des GPS-Signals durch die Vegetation auf die Time To First Fix (TTFF) untersucht. Die TTFF beeinflusst direkt die Betriebszeit des GPS-Empfängers und ist damit ein kritischer Faktor für den Energieverbrauch. Die Arbeit beschäftigt sich darüber hinaus mit der Energiebilanz des Telemetrie-Halsbandes, das sich vor allem durch eine hohe Datenfrequenz (GPS-Updates) und die Aufnahmemöglichkeit digitaler Bilddaten von kommerziellen "State of the Art" Telemetriesystemen unterscheidet. Aus diesem Grund ist eine Energieversorgung durch Batterien, wegen deren Gewicht, nur bedingt möglich. Daher wurde die Einsatzmöglichkeit von alternativen Energiequellen (Solarenergie) untersucht.
Diese Masterarbeit entstand im Rahmen des Projekts eGame am Institut für Digitale Bildverarbeitung des Joanneum Research. eGame ist ein interdisziplinäres Projekt zur Entwicklung eines Multisensor-Telemetriesystems (Telemetrie-Halsband) zur Überwachung von Wildtieren (primär Rotwild). Die integrierten Sensoren umfassen einen GPS-Empfänger zur Positionsbestimmung, eine digitale Kamera zur Aufnahme von Bildmaterial, einen Temperatursensor und eine Kommunikationseinheit zur Übertragung der Daten an den Benutzer bzw. bei Bedarf zur interaktiven Steuerung der Komponenten. Diese Masterarbeit beschäftigt sich mit dem Design und Gesamtkonzept des Telemetrie-Halsbandes und der Auswahl geeigneter Hardware (primär GPS-Empfänger und GPS-Datenlogger) zum Betrieb des Systems. Ein wesentlicher Teil war der Test des GPS-Empfängers unter einsatznahen Bedingungen. Für diese Untersuchungen wurde ein Testszenario entworfen, das die Leistung des High Sensitivity GPS-Empfängers unter verschiedenen Vegetationstypen entsprechend der Lebensräume der Tiere aufzeigen soll. Zusätzlich wurde die Auswirkung der Abschwächung des GPS-Signals durch die Vegetation auf die Time To First Fix (TTFF) untersucht. Die TTFF beeinflusst direkt die Betriebszeit des GPS-Empfängers und ist damit ein kritischer Faktor für den Energieverbrauch. Die Arbeit beschäftigt sich darüber hinaus mit der Energiebilanz des Telemetrie-Halsbandes, das sich vor allem durch eine hohe Datenfrequenz (GPS-Updates) und die Aufnahmemöglichkeit digitaler Bilddaten von kommerziellen "State of the Art" Telemetriesystemen unterscheidet. Aus diesem Grund ist eine Energieversorgung durch Batterien, wegen deren Gewicht, nur bedingt möglich. Daher wurde die Einsatzmöglichkeit von alternativen Energiequellen (Solarenergie) untersucht.
Test and Comparison of Different Regionalization Methods for Ecoregions based on Minimum Spanning Trees
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gerald Gruber (FH Technikum Kärnten), Luciano Vieira Dutra (Instituto Nacional de Pesquisas Espaciais; Brasilien)
Betreuer: Gerald Gruber (FH Technikum Kärnten), Luciano Vieira Dutra (Instituto Nacional de Pesquisas Espaciais; Brasilien)
Kurzfassung/Abstract
"Ecoregionalization" ist die Aufteilung einer Fläche in mehrere, homogene Gebiete, welche ähnliche ökologische Eigenschaften aufweisen. Die erzeugten Gebiete werden als Ökoregionen bezeichnet. Regionalisierung ist eine spezielle Art von Klassifizierungsmethoden, welche den räumlichen Aspekt bei der Aufteilung der Gebiete miteinbezieht. Einerseits werden in dieser Arbeit Klassifizierungstechniken mit Regionalisierungsmethoden gegenübergestellt, andererseits werden verschiedene Regionalisierungsprozesse untereinander verglichen. Sowohl der Ablauf als auch die Vor- und Nachteile dieser Methoden werden analysiert und in Detail beschrieben. Ein wesentliches Merkmal all dieser Techniken ist die Verwendung von Graphentheorie, da die einzelnen Regionen als Punkte dargestellt werden, welche über Kanten verbunden sind. Außerdem wird während des Regionalisierungsprozesses ein minimal spannender Baum erzeugt, der nur Gebiete, die ähnliche Eigenschaften haben, verbindet. Weiters werden Qualität und Effizienz der verschiedenen Techniken analysiert. Die Arbeit schließt mit einer Zusammenfassung der wesentlichen Punkte und bietet Anregungen für weitere Entwicklungen und Verbesserungen im Ausblick.
"Ecoregionalization" ist die Aufteilung einer Fläche in mehrere, homogene Gebiete, welche ähnliche ökologische Eigenschaften aufweisen. Die erzeugten Gebiete werden als Ökoregionen bezeichnet. Regionalisierung ist eine spezielle Art von Klassifizierungsmethoden, welche den räumlichen Aspekt bei der Aufteilung der Gebiete miteinbezieht. Einerseits werden in dieser Arbeit Klassifizierungstechniken mit Regionalisierungsmethoden gegenübergestellt, andererseits werden verschiedene Regionalisierungsprozesse untereinander verglichen. Sowohl der Ablauf als auch die Vor- und Nachteile dieser Methoden werden analysiert und in Detail beschrieben. Ein wesentliches Merkmal all dieser Techniken ist die Verwendung von Graphentheorie, da die einzelnen Regionen als Punkte dargestellt werden, welche über Kanten verbunden sind. Außerdem wird während des Regionalisierungsprozesses ein minimal spannender Baum erzeugt, der nur Gebiete, die ähnliche Eigenschaften haben, verbindet. Weiters werden Qualität und Effizienz der verschiedenen Techniken analysiert. Die Arbeit schließt mit einer Zusammenfassung der wesentlichen Punkte und bietet Anregungen für weitere Entwicklungen und Verbesserungen im Ausblick.
Semiautomatic Detection and Validation of Geomorphic Seafloor Features Using Laser Airborne Depth Sounding (LADS) Bathymetry
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2008
Betreuer: Gernot Paulus (FH Technikum Kärnten), Charles W. Finkl (Coastal Planning & Engineering Inc.; USA)
Betreuer: Gernot Paulus (FH Technikum Kärnten), Charles W. Finkl (Coastal Planning & Engineering Inc.; USA)
Kurzfassung/Abstract
Ziel dieser Diplomarbeit ist die Entwicklung einer semiautomatischen Methode, um geomorphologische Formen des Meeresbodens, basierend auf Laser Scan Daten, zu
erkennen. Dabei werden die einzelnen Formen auf Basis morphologischer Kriterien eines digitalen Höhenmodells berechnet und als Gleichungen, welche die ermittelten
Kriterien beinhalten, dargestellt. Unter Verwendung der Gleichungen, welche individuell an die einzelnen geomorphologischen Formen angepasst sind, wird ein
„beschreibendes" Klassifizierungssystem definiert. Weiters wird eine geomorphologische Karte des Untersuchungsgebietes, welches sich von Palm Beach bis MiamiDade County an der südöstlichen Küste Floridas erstreckt, erstellt und in einem Vergleich mit einer ExpertenKlassifizierung von Finkl et al. (2008) validiert.
Diese Studie befasst sich mit der Interpretation und karographischen Darstellung des gleichen Untersuchungsgebiets und liefert daher essentielle Informationen über die räumliche Lage der individuellen geomorphologischen Formen des Meeresbodens. Durch diesen Vergleich wird die Hypothese dieser Diplomarbeit, dass
es möglich ist ein Klassifizierungsschema zur semiautomatischen Erkennung der Meeresboden Geomorphologie zu definieren, bestätigt. Die einzelnen Formen werden daher eindeutig in dem Untersuchungsgebiet, unter Verwendung der aufgestellten topographischen Gleichungen und Einschränkungen, erkannt. Folgernd eröffnet diese Prüfung die Möglichkeit, Aufschluss über die Anwendbarkeit des verfolgten Ansatzes in der Praxis zu erhalten.
Im Großen und Ganzen kann ein realitätsnahes Resultat mit dieser semiautomatischen Methode erzielt werden. Sie erleichtert einerseits die Experten Interpretation und ist in weiterer Folge Zeit sowie Kosten sparend.
Ziel dieser Diplomarbeit ist die Entwicklung einer semiautomatischen Methode, um geomorphologische Formen des Meeresbodens, basierend auf Laser Scan Daten, zu
erkennen. Dabei werden die einzelnen Formen auf Basis morphologischer Kriterien eines digitalen Höhenmodells berechnet und als Gleichungen, welche die ermittelten
Kriterien beinhalten, dargestellt. Unter Verwendung der Gleichungen, welche individuell an die einzelnen geomorphologischen Formen angepasst sind, wird ein
„beschreibendes" Klassifizierungssystem definiert. Weiters wird eine geomorphologische Karte des Untersuchungsgebietes, welches sich von Palm Beach bis MiamiDade County an der südöstlichen Küste Floridas erstreckt, erstellt und in einem Vergleich mit einer ExpertenKlassifizierung von Finkl et al. (2008) validiert.
Diese Studie befasst sich mit der Interpretation und karographischen Darstellung des gleichen Untersuchungsgebiets und liefert daher essentielle Informationen über die räumliche Lage der individuellen geomorphologischen Formen des Meeresbodens. Durch diesen Vergleich wird die Hypothese dieser Diplomarbeit, dass
es möglich ist ein Klassifizierungsschema zur semiautomatischen Erkennung der Meeresboden Geomorphologie zu definieren, bestätigt. Die einzelnen Formen werden daher eindeutig in dem Untersuchungsgebiet, unter Verwendung der aufgestellten topographischen Gleichungen und Einschränkungen, erkannt. Folgernd eröffnet diese Prüfung die Möglichkeit, Aufschluss über die Anwendbarkeit des verfolgten Ansatzes in der Praxis zu erhalten.
Im Großen und Ganzen kann ein realitätsnahes Resultat mit dieser semiautomatischen Methode erzielt werden. Sie erleichtert einerseits die Experten Interpretation und ist in weiterer Folge Zeit sowie Kosten sparend.
Topographische Datenerfassung mittels Airborne Laserscanning - Verbesserte Digitale Geländemodelle mittels full-waveform ALS-Daten
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2008
Betreuer: Univ.Prof. Dipl.-Ing. Dr.techn. Norbert Pfeifer, Dipl.-Ing. Dr.techn. Christian Briese
Betreuer: Univ.Prof. Dipl.-Ing. Dr.techn. Norbert Pfeifer, Dipl.-Ing. Dr.techn. Christian Briese
Kurzfassung/Abstract
In dieser Master-Thesis wird neben der Vorstellung der konventionellen diskreten Echo Airborne Laser Scanning (ALS) Systeme und der erweiterten full-waveform Airborne Laser Scanning Systeme (FWF-ALS) in einem praktischen Beispiel die Erstellung Digitaler Gelände Modelle (DGM) mit und ohne Berücksichtigung der full-waveform (FWF)-Information gegenübergestellt.
Nach einer kurzen Einleitung werden die physikalischen Grundlagen des ALS und die damit verbundenen Mechanismen der Strahlablenkung kurz vorgestellt. Auch erfolgt eine Beschreibung der natürlichen Einflussfaktoren auf den Messvorgang, welche zum Verständnis der ALS-Daten beitragen.
Danach folgt eine Erläuterung der Koordinatensysteme der Sensorplattform, welche zur Berechnung von ALS-Punkten und deren Genauigkeiten benötigt werden. Weiters behandelt diese Arbeit die Kalibrierung des ALS Systems und die Fein-Georeferenzierung von Flugstreifen.
In den folgenden Kapiteln wird auf Begriffsdefinitionen für unterschiedliche abgeleitete Modelle eingegangen und Methoden zur Klassifizierung von ALS Punktwolken in Bodenpunkte und Nicht-Bodenpunkte werden vorgestellt. Danach wird auf die Generierung von Digitalen Geländemodellen (DGM) und Oberflächenmodellen (DOM) aus ALS-Daten eingegangen.
Das vorletzte Kapitel beschäftigt sich mit diskreten Echo Systemen und FWF-ALS Prinzipien. Es wird ein Überblick über die Prozessierung von FWF-ALS Daten und der Ableitung von zusätzlichen Informationen pro detektiertem Echo gegeben.
Das letzte Kapitel befasst sich mit der Problemstellung und einem praktischen Beispiel, das zeigt, wie der jedem Echo bzw. Laserpunkt zur Verfügung stehende Wert der Echoweite genutzt werden kann, um die Grenze zwischen Niedrig-Vegetation und Boden-Punkten zu bestimmen. Weiters wird die DGM-Verbesserung basierend auf zusätzlichen Informationen pro detektiertem Echo diskutiert. Abschließend erfolgt eine Zusammenfassung der Vor- und Nachteile von FWF-ALS Systemen.
In dieser Master-Thesis wird neben der Vorstellung der konventionellen diskreten Echo Airborne Laser Scanning (ALS) Systeme und der erweiterten full-waveform Airborne Laser Scanning Systeme (FWF-ALS) in einem praktischen Beispiel die Erstellung Digitaler Gelände Modelle (DGM) mit und ohne Berücksichtigung der full-waveform (FWF)-Information gegenübergestellt.
Nach einer kurzen Einleitung werden die physikalischen Grundlagen des ALS und die damit verbundenen Mechanismen der Strahlablenkung kurz vorgestellt. Auch erfolgt eine Beschreibung der natürlichen Einflussfaktoren auf den Messvorgang, welche zum Verständnis der ALS-Daten beitragen.
Danach folgt eine Erläuterung der Koordinatensysteme der Sensorplattform, welche zur Berechnung von ALS-Punkten und deren Genauigkeiten benötigt werden. Weiters behandelt diese Arbeit die Kalibrierung des ALS Systems und die Fein-Georeferenzierung von Flugstreifen.
In den folgenden Kapiteln wird auf Begriffsdefinitionen für unterschiedliche abgeleitete Modelle eingegangen und Methoden zur Klassifizierung von ALS Punktwolken in Bodenpunkte und Nicht-Bodenpunkte werden vorgestellt. Danach wird auf die Generierung von Digitalen Geländemodellen (DGM) und Oberflächenmodellen (DOM) aus ALS-Daten eingegangen.
Das vorletzte Kapitel beschäftigt sich mit diskreten Echo Systemen und FWF-ALS Prinzipien. Es wird ein Überblick über die Prozessierung von FWF-ALS Daten und der Ableitung von zusätzlichen Informationen pro detektiertem Echo gegeben.
Das letzte Kapitel befasst sich mit der Problemstellung und einem praktischen Beispiel, das zeigt, wie der jedem Echo bzw. Laserpunkt zur Verfügung stehende Wert der Echoweite genutzt werden kann, um die Grenze zwischen Niedrig-Vegetation und Boden-Punkten zu bestimmen. Weiters wird die DGM-Verbesserung basierend auf zusätzlichen Informationen pro detektiertem Echo diskutiert. Abschließend erfolgt eine Zusammenfassung der Vor- und Nachteile von FWF-ALS Systemen.
Aneignung von räumlichem Wissen unter Einsatz von elektronischen Navigationshilfen mit Möglichkeit zur Selbstverortung
Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, Technische Universität Wien, 2009
Begutachter: Univ.Prof. Mag. Dr.techn. Georg Gartner
Betreuer: Dipl.-Ing. Alexandra Millonig
Begutachter: Univ.Prof. Mag. Dr.techn. Georg Gartner
Betreuer: Dipl.-Ing. Alexandra Millonig
Kurzfassung/Abstract
Die vorliegende Arbeit beschäftigt sich mit der Frage, welchen Einfluss der Einsatz von elektronischen Navigationshilfen mit Möglichkeit zur Selbstverortung (ENMS) auf die Bildung kognitiver Karten ausübt. Es wird angenommen, dass der Einsatz von ENMS zu geringerem räumlichen Wissen führt, als es bei Verwendung einer herkömmlichen Karte zu erwarten ist.
Zur Untersuchung der aufgestellten Hypothese wird die Natur und Struktur räumlichen Wissens genauer untersucht. Es wird ein Überblick über die, für die Bildung räumlichen Wissens relevanten Möglichkeiten der Wahrnehmung gegeben. Anschließend wird die Natur kognitiver Karten als Form der mentalen Repräsentation des betrachteten Raumes dargelegt.
Die so gewonnenen Erkenntnisse lassen sich mit dem Wissen über die Vorgänge beim Ablegen der räumlichen Informationen im menschlichen Gedächtnis - es handelt sich um eine Form des Lernens - kombinieren.
Zur Überprüfung der gewonnenen theoretischen Erkenntnisse wurde im Rahmen dieser Arbeit eine Untersuchung durchgeführt, deren Ergebnisse vorgestellt werden.
Die Bildung einer kognitiven Karte stellt eine Form von Lernprozess dar, bei dem Informationen über die Umwelt in das Langzeitgedächtnis überführt werden. Dazu werden die Informationen zunächst interpretiert und schließlich strukturiert in ein mentales Modell unserer Umwelt eingebettet. Ob und wie gut sich das Wissen über den Raum im Gedächtnis verankern lässt, hängt davon ab, auf welche Art und Weise das betreffende Gebiet erschlossen wird. Dazu werden zwei unterschiedliche Möglichkeiten vorgestellt. Auf der einen Seite steht hier die elaborative Erarbeitung des Wissens unter Einsatz kognitiver Leistung, auf der anderen Seite die Erschließung des Raumes durch Führung - Guidance. Im ersten Fall werden die räumlichen Informationen selbst erschlossen und durch tiefergehende Beschäftigung damit im Langezeitgedächtnis verankert. Bei der Nutzung von z.B. ENMS1 werden die Informationen über den Raum nur en passant aufgenommen aber nicht weiter verankert. Die praktische Untersuchung der Fragestellung wird in Form eines Realexperiments durchgeführt, wobei die Bildung räumlichen Wissens unter beiden Bedingungen (Verwendung einer Karte/ ENMS) untersucht und verglichen wird. Die Auswertung der Ergebnisse stützt die Hypothese, nämlich dass die Verwendung von ENMS die Bildung räumlichen Wissens negativ beeinflusst. Es wird gezeigt, dass bei den Durchgängen mit Karte besseres räumliches Wissen bei den Probanden festzustellen ist, als bei jenen mit ENMS. Ähnlich verhält es sich bei der Analyse der Ergebnisse einer ebenfalls durchgeführten Aufgabe zur Einschätzung der Richtung zu einem bestimmten Punkt. Während und nach den Kartendurchgängen sind deutlich geringere Abweichungen zwischen tatsächlicher und geschätzter Richtung feststellbar.
Der Umstand, dass die Bildung von räumlichen Wissen durch ENMS nicht gefördert wird, wie dies bei einer Karte der Fall wäre, führt zur Frage nach der praktischen Bedeutung von räumlichem Wissen. Je nach persönlicher Situation kann der verhältnismäßige Mangel an räumlichem Wissen verschiedene Auswirkungen haben. Für eine Person, die eine gelegentliche Reise in eine fremde Stadt unternimmt, ist der Einsatz des ENMS sicher kein Problem. Der Ausfall des Gerätes in der fremden Umgebung lässt sich beispielsweise durch das Befragen von Passanten kompensieren. Im Falle von Einsatzkräften, wie z.B. der Rettung, kann nicht von den selben Voraussetzungen ausgegangen werden - hier muss eine permanente Orientierungsfähigkeit gewährleistet bleiben.
Die vorliegende Arbeit beschäftigt sich mit der Frage, welchen Einfluss der Einsatz von elektronischen Navigationshilfen mit Möglichkeit zur Selbstverortung (ENMS) auf die Bildung kognitiver Karten ausübt. Es wird angenommen, dass der Einsatz von ENMS zu geringerem räumlichen Wissen führt, als es bei Verwendung einer herkömmlichen Karte zu erwarten ist.
Zur Untersuchung der aufgestellten Hypothese wird die Natur und Struktur räumlichen Wissens genauer untersucht. Es wird ein Überblick über die, für die Bildung räumlichen Wissens relevanten Möglichkeiten der Wahrnehmung gegeben. Anschließend wird die Natur kognitiver Karten als Form der mentalen Repräsentation des betrachteten Raumes dargelegt.
Die so gewonnenen Erkenntnisse lassen sich mit dem Wissen über die Vorgänge beim Ablegen der räumlichen Informationen im menschlichen Gedächtnis - es handelt sich um eine Form des Lernens - kombinieren.
Zur Überprüfung der gewonnenen theoretischen Erkenntnisse wurde im Rahmen dieser Arbeit eine Untersuchung durchgeführt, deren Ergebnisse vorgestellt werden.
Die Bildung einer kognitiven Karte stellt eine Form von Lernprozess dar, bei dem Informationen über die Umwelt in das Langzeitgedächtnis überführt werden. Dazu werden die Informationen zunächst interpretiert und schließlich strukturiert in ein mentales Modell unserer Umwelt eingebettet. Ob und wie gut sich das Wissen über den Raum im Gedächtnis verankern lässt, hängt davon ab, auf welche Art und Weise das betreffende Gebiet erschlossen wird. Dazu werden zwei unterschiedliche Möglichkeiten vorgestellt. Auf der einen Seite steht hier die elaborative Erarbeitung des Wissens unter Einsatz kognitiver Leistung, auf der anderen Seite die Erschließung des Raumes durch Führung - Guidance. Im ersten Fall werden die räumlichen Informationen selbst erschlossen und durch tiefergehende Beschäftigung damit im Langezeitgedächtnis verankert. Bei der Nutzung von z.B. ENMS1 werden die Informationen über den Raum nur en passant aufgenommen aber nicht weiter verankert. Die praktische Untersuchung der Fragestellung wird in Form eines Realexperiments durchgeführt, wobei die Bildung räumlichen Wissens unter beiden Bedingungen (Verwendung einer Karte/ ENMS) untersucht und verglichen wird. Die Auswertung der Ergebnisse stützt die Hypothese, nämlich dass die Verwendung von ENMS die Bildung räumlichen Wissens negativ beeinflusst. Es wird gezeigt, dass bei den Durchgängen mit Karte besseres räumliches Wissen bei den Probanden festzustellen ist, als bei jenen mit ENMS. Ähnlich verhält es sich bei der Analyse der Ergebnisse einer ebenfalls durchgeführten Aufgabe zur Einschätzung der Richtung zu einem bestimmten Punkt. Während und nach den Kartendurchgängen sind deutlich geringere Abweichungen zwischen tatsächlicher und geschätzter Richtung feststellbar.
Der Umstand, dass die Bildung von räumlichen Wissen durch ENMS nicht gefördert wird, wie dies bei einer Karte der Fall wäre, führt zur Frage nach der praktischen Bedeutung von räumlichem Wissen. Je nach persönlicher Situation kann der verhältnismäßige Mangel an räumlichem Wissen verschiedene Auswirkungen haben. Für eine Person, die eine gelegentliche Reise in eine fremde Stadt unternimmt, ist der Einsatz des ENMS sicher kein Problem. Der Ausfall des Gerätes in der fremden Umgebung lässt sich beispielsweise durch das Befragen von Passanten kompensieren. Im Falle von Einsatzkräften, wie z.B. der Rettung, kann nicht von den selben Voraussetzungen ausgegangen werden - hier muss eine permanente Orientierungsfähigkeit gewährleistet bleiben.
Die Beeinflussung des räumlichen Wissenserwerbs in Abhängigkeit von der Größe der Darstellungsfläche des Präsentationsmediums
Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, Technische Universität Wien, 2008
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner
Betreuer: Univ. Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
In der heutigen Zeit werden vermehrt Fußgängernavigationssysteme auf den Markt gebracht. Die Basis für diese Navigationshilfen sind meist Mobiltelefone, mobile Computer oder ähnliche kompakte Geräte. Gewisse systembedingte Probleme und Nachteile werden aber bei der Konzeption meist nicht berücksichtigt.
Ein grundlegender Aspekt ist das kleine Format der Darstellungsfläche aufgrund der kompakten Bauform solcher Geräte im Vergleich zu einer herkömmlichen, gedruckten Karte.
In dieser Arbeit soll die Beeinflussung des räumlichen Wissenserwerbes sowie die Deformierung des mentalen Modells des Nutzers, in Abhängigkeit von der Größe der Darstellungsfläche des Präsentationsmediums, untersucht werden. Zu diesem Zweck wird eine empirische Untersuchung durchgeführt. Dabei wird der räumliche Wissenserwerb mit dem Medium Karte sowie mit einem Navigationsgerät untersucht. Die Ergebnisse werden miteinander verglichen, ausgewertet und interpretiert. Die daraus erlangten Erkenntnisse sollen helfen, zukünftige Entwicklungen auf diesem Sektor effektiver und nutzerfreundlicher zu gestalten.
In der heutigen Zeit werden vermehrt Fußgängernavigationssysteme auf den Markt gebracht. Die Basis für diese Navigationshilfen sind meist Mobiltelefone, mobile Computer oder ähnliche kompakte Geräte. Gewisse systembedingte Probleme und Nachteile werden aber bei der Konzeption meist nicht berücksichtigt.
Ein grundlegender Aspekt ist das kleine Format der Darstellungsfläche aufgrund der kompakten Bauform solcher Geräte im Vergleich zu einer herkömmlichen, gedruckten Karte.
In dieser Arbeit soll die Beeinflussung des räumlichen Wissenserwerbes sowie die Deformierung des mentalen Modells des Nutzers, in Abhängigkeit von der Größe der Darstellungsfläche des Präsentationsmediums, untersucht werden. Zu diesem Zweck wird eine empirische Untersuchung durchgeführt. Dabei wird der räumliche Wissenserwerb mit dem Medium Karte sowie mit einem Navigationsgerät untersucht. Die Ergebnisse werden miteinander verglichen, ausgewertet und interpretiert. Die daraus erlangten Erkenntnisse sollen helfen, zukünftige Entwicklungen auf diesem Sektor effektiver und nutzerfreundlicher zu gestalten.