- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2004
Abschlussarbeiten 2004
Webbasiertes 3D visualisiertes Facility Management System
Technische Universität Graz, 2004. Begutachter: Ao.Univ.-Prof. Dr. Norbert Bartelme, Institut für Geoinformation, TU Graz.
Kurzfassung/Abstract
In den letzten Jahren erlebten die Geoinformation und der Bereich des Facility Managements einen großen Aufschwung. Viele Produkte sind auf dem Markt zu finden, welche aber meist sehr kostenintensiv in der Anschaffung sind. Die rasante Entwicklung des Internets, inklusive der Entwicklung von VRML als dreidimensionale Visualisierungsmöglichkeit, führt fast zwangsläufig zur Kombination von Internet mit VRML zur Erstellung eines webbasierten 3D visualisierten Facility Management Systems. Der Schwerpunkt dieser Arbeit liegt vor allem im Bereich der Verbindung von dreidimensional dargestellten Objekten mit einer Datenbank sowie der Möglichkeit, individuelle Abfragen zu generieren. Das Ergebnis dieser Abfragen soll dann in einer entsprechenden Visualisierung dargestellt werden können. Der Vorteil gegenüber bestehenden Softwareprodukten liegt vor allem in der einfachen Handhabung und der günstigen Anschaffung. Da in den meisten Fällen nur wenige Möglichkeiten eines solchen Systems genützt werden, ist es sinnvoll, dieses System einfach und flexibel zu gestalten, damit es mit geringem Aufwand an kundenspezifische Ansprüche angepasst werden kann.
In den letzten Jahren erlebten die Geoinformation und der Bereich des Facility Managements einen großen Aufschwung. Viele Produkte sind auf dem Markt zu finden, welche aber meist sehr kostenintensiv in der Anschaffung sind. Die rasante Entwicklung des Internets, inklusive der Entwicklung von VRML als dreidimensionale Visualisierungsmöglichkeit, führt fast zwangsläufig zur Kombination von Internet mit VRML zur Erstellung eines webbasierten 3D visualisierten Facility Management Systems. Der Schwerpunkt dieser Arbeit liegt vor allem im Bereich der Verbindung von dreidimensional dargestellten Objekten mit einer Datenbank sowie der Möglichkeit, individuelle Abfragen zu generieren. Das Ergebnis dieser Abfragen soll dann in einer entsprechenden Visualisierung dargestellt werden können. Der Vorteil gegenüber bestehenden Softwareprodukten liegt vor allem in der einfachen Handhabung und der günstigen Anschaffung. Da in den meisten Fällen nur wenige Möglichkeiten eines solchen Systems genützt werden, ist es sinnvoll, dieses System einfach und flexibel zu gestalten, damit es mit geringem Aufwand an kundenspezifische Ansprüche angepasst werden kann.
Die Lösung der Phasenambiguitäten für GNSS-2: Möglichkeiten und Methoden
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2004. Betreuer: Univ.-Ass. Dipl.-Ing. Dr.techn. Klaus Legat.
Kurzfassung/Abstract
Die Beobachtung von GPS-Trägerphasen ermöglicht die Positionierung mit Zentimeter- bis Millimetergenauigkeit. Da jedoch nur das Phasenreststück gemessen werden kann, entstehen zusätzliche ganzzahlige Unbekannte, die Phasenambiguitäten. Diese müssen bestimmt werden, um die erreichbare Genauigkeit auszuschöpfen. Dafür wurde eine Vielzahl von Lösungsmethoden entwickelt. Das modernisierte GPS und das europäische System Galileo, die man häufig unter dem Begriff GNSS-2 zusammenfasst, werden neue Möglichkeiten für die Ambiguitätenlösung eröffnen, im Besonderen durch die zukünftige Verfügbarkeit von drei bzw. vier Trägerfrequenzen. In der Arbeit wird ein Überblick über existierende Lösungsmethoden gegeben. Diese werden klassifiziert, und einige repräsentative Methoden werden genauer analysiert und bezüglich ihrer Anwendbarkeit für GNSS-2 untersucht. Während die LAMBDA-Methode für GNSS-2 nicht modifiziert werden muss, wird das Widelaning durch Ergänzung mit neuen Widelane-Linearkombinationen zu mehrstufigen Algorithmen erweitert (CIR, TCAR, MCAR). Um die Leistungsfähigkeit der genannten Methoden vergleichen zu können, wurde mit C++ und der Klassenbibliothek Qt ein Simulationstool programmiert, mit dem Plots der Erfolgsraten bei epochenweiser Ambiguitätenlösung angefertigt werden können. Die Ergebnisse der Simulationen werden diskutiert, um die Vor- und Nachteile dieser Methoden zu veranschaulichen und zu zeigen, von welchen Aspekten von GNSS-2 die Ambiguitätenlösung profitiert.
Die Beobachtung von GPS-Trägerphasen ermöglicht die Positionierung mit Zentimeter- bis Millimetergenauigkeit. Da jedoch nur das Phasenreststück gemessen werden kann, entstehen zusätzliche ganzzahlige Unbekannte, die Phasenambiguitäten. Diese müssen bestimmt werden, um die erreichbare Genauigkeit auszuschöpfen. Dafür wurde eine Vielzahl von Lösungsmethoden entwickelt. Das modernisierte GPS und das europäische System Galileo, die man häufig unter dem Begriff GNSS-2 zusammenfasst, werden neue Möglichkeiten für die Ambiguitätenlösung eröffnen, im Besonderen durch die zukünftige Verfügbarkeit von drei bzw. vier Trägerfrequenzen. In der Arbeit wird ein Überblick über existierende Lösungsmethoden gegeben. Diese werden klassifiziert, und einige repräsentative Methoden werden genauer analysiert und bezüglich ihrer Anwendbarkeit für GNSS-2 untersucht. Während die LAMBDA-Methode für GNSS-2 nicht modifiziert werden muss, wird das Widelaning durch Ergänzung mit neuen Widelane-Linearkombinationen zu mehrstufigen Algorithmen erweitert (CIR, TCAR, MCAR). Um die Leistungsfähigkeit der genannten Methoden vergleichen zu können, wurde mit C++ und der Klassenbibliothek Qt ein Simulationstool programmiert, mit dem Plots der Erfolgsraten bei epochenweiser Ambiguitätenlösung angefertigt werden können. Die Ergebnisse der Simulationen werden diskutiert, um die Vor- und Nachteile dieser Methoden zu veranschaulichen und zu zeigen, von welchen Aspekten von GNSS-2 die Ambiguitätenlösung profitiert.
Leistungsanalyse eines kommerziellen Multi-Sensor Navigationssystems für Fußgänger
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2004. Begutachter: Univ.-Ass. Dipl.-Ing. Dr. Klaus Legat.
Kurzfassung/Abstract
Eines der wenigen kommerziell erhältlichen Multi-Sensor Navigationssysteme für Fußgänger ist das GyroDRM der amerikanischen Firma Point Research Corporation. Ziel dieser Arbeit ist es, dieses System eingehenden Tests zu unterziehen und die Einsatzmöglichkeiten zu beurteilen. Nach einleitenden Abschnitten über Koordinatensysteme und Positionierungstechniken wird die Idee der Sensorfusion entwickelt. Anschließend wird das GyroDRM detailliert vorgestellt, indem sämtliche Sensoren (GPS Empfänger, barometrischer Höhenmesser, Magnetkompass, Beschleunigungssensoren und sonstige Komponenten) beschrieben werden, wobei vor allem auf theoretische Grundlagen und Messprinzipien eingegangen wird. Für das nun bekannte System werden Testszenarien entwickelt, die sowohl statische als auch kinematische Tests in unterschiedlichen Umgebungen vorsehen. Untersuchungen der Koppelnavigationskomponente und der integrierten Positionsbestimmung beschließen den Teil des Testens und Bewertens. Nach den Arbeiten, die auf den „vorgefertigten“ firmeninternen Algorithmen von Point Research basieren, werden Eigenentwicklungen (Algorithmus für die Koppelnavigation, Integration mit GPS und barometrischer Höhenmessung in einem Kalman Filter) vorgestellt, die in einer MATLAB-Umgebung eingebettet sind. Am Ende werden sämtliche Ergebnisse zusammengefasst und die Einsatzmöglichkeiten des GyroDRM beschrieben und bewertet.
Eines der wenigen kommerziell erhältlichen Multi-Sensor Navigationssysteme für Fußgänger ist das GyroDRM der amerikanischen Firma Point Research Corporation. Ziel dieser Arbeit ist es, dieses System eingehenden Tests zu unterziehen und die Einsatzmöglichkeiten zu beurteilen. Nach einleitenden Abschnitten über Koordinatensysteme und Positionierungstechniken wird die Idee der Sensorfusion entwickelt. Anschließend wird das GyroDRM detailliert vorgestellt, indem sämtliche Sensoren (GPS Empfänger, barometrischer Höhenmesser, Magnetkompass, Beschleunigungssensoren und sonstige Komponenten) beschrieben werden, wobei vor allem auf theoretische Grundlagen und Messprinzipien eingegangen wird. Für das nun bekannte System werden Testszenarien entwickelt, die sowohl statische als auch kinematische Tests in unterschiedlichen Umgebungen vorsehen. Untersuchungen der Koppelnavigationskomponente und der integrierten Positionsbestimmung beschließen den Teil des Testens und Bewertens. Nach den Arbeiten, die auf den „vorgefertigten“ firmeninternen Algorithmen von Point Research basieren, werden Eigenentwicklungen (Algorithmus für die Koppelnavigation, Integration mit GPS und barometrischer Höhenmessung in einem Kalman Filter) vorgestellt, die in einer MATLAB-Umgebung eingebettet sind. Am Ende werden sämtliche Ergebnisse zusammengefasst und die Einsatzmöglichkeiten des GyroDRM beschrieben und bewertet.
GPS/INS für Transportanwendungen im Alpenraum
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2004. Betreuer: Univ.-Ass. Dipl.-Ing. Dr.techn. Klaus Legat
Kurzfassung/Abstract
Der Einsatz von GPS in Landanwendungen wird durch die geringe Signalstärke der Satelliten beim Empfang auf der Erde erschwert. Dies führt dazu, dass die Signale durch verschiedenste Hindernisse abgeschattet werden können. Gerade im Alpenraum werden beträchtliche Signalabschattungen durch die Topographie und die oft dichte Vegetation hervorgerufen. Aus diesem Grund bedürfen Navigationsanwendungen z.B. für Transportzwecke in derartigen Umgebungen anderer Verfahren zur Überbrückung von GPS-Ausfällen. Eine Methode ist die Integration von GPS mit einem Inertialnavigationssystem (INS), das sich durch seine Autonomie, d.h. durch die Unabhängigkeit von Funknavigationsanlagen, auszeichnet. Problematisch ist jedoch die zeitliche Abnahme der Positionsgenauigkeit, die vor allem durch systematische Sensorfehler verursacht wird. Hier kann die wiederholte Korrektur der Ergebnisse mit GPS Abhilfe schaffen. Im Rahmen dieser Magisterarbeit wurden Testmessungen mit einem hochqualitativen GPS/INS-System im Großraum Berchtesgaden durchgeführt. Das Ziel dieser Testmessungen war die Bestätigung, dass sich derartige Systeme für den Einsatz in alpinem Gelände eignen. Der erste Teil der Arbeit umfasst die für das Verständnis der GPS/INS-Integration notwendigen theoretischen Grundlagen. Im zweiten Teil werden die Planung und Durchführung der Testmessungen beschrieben sowie die daraus resultierenden Ergebnisse graphisch dargestellt und interpretiert.
Der Einsatz von GPS in Landanwendungen wird durch die geringe Signalstärke der Satelliten beim Empfang auf der Erde erschwert. Dies führt dazu, dass die Signale durch verschiedenste Hindernisse abgeschattet werden können. Gerade im Alpenraum werden beträchtliche Signalabschattungen durch die Topographie und die oft dichte Vegetation hervorgerufen. Aus diesem Grund bedürfen Navigationsanwendungen z.B. für Transportzwecke in derartigen Umgebungen anderer Verfahren zur Überbrückung von GPS-Ausfällen. Eine Methode ist die Integration von GPS mit einem Inertialnavigationssystem (INS), das sich durch seine Autonomie, d.h. durch die Unabhängigkeit von Funknavigationsanlagen, auszeichnet. Problematisch ist jedoch die zeitliche Abnahme der Positionsgenauigkeit, die vor allem durch systematische Sensorfehler verursacht wird. Hier kann die wiederholte Korrektur der Ergebnisse mit GPS Abhilfe schaffen. Im Rahmen dieser Magisterarbeit wurden Testmessungen mit einem hochqualitativen GPS/INS-System im Großraum Berchtesgaden durchgeführt. Das Ziel dieser Testmessungen war die Bestätigung, dass sich derartige Systeme für den Einsatz in alpinem Gelände eignen. Der erste Teil der Arbeit umfasst die für das Verständnis der GPS/INS-Integration notwendigen theoretischen Grundlagen. Im zweiten Teil werden die Planung und Durchführung der Testmessungen beschrieben sowie die daraus resultierenden Ergebnisse graphisch dargestellt und interpretiert.
Untersuchung und Quantifizierung des Einflusses von aus Leitungen resultierenden Rechten und Belastungen auf den Verkehrswert von Immobilien
Institut für Navigation und Satellitengeodäsie. TU-Graz 2004. Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. B. Hofmann-Wellenhof.
Kurzfassung/Abstract
Leitungsrechte und Leitungsdienstbarkeiten beeinflussen den Verkehrswert der Grundstücke, über welche sie geführt werden. Diese Diplomarbeit ist ein Versuch, den vermögenswerten Einfluss diverser Leitungen auf Immobilien von anderen wertbeeinflussenden Faktoren losgelöst zu betrachten. Im Rahmen einer Immobilienmaklerbefragung im Bundesland Salzburg wurde eine Art Schätzungsrahmen entwickelt, der im Falle einer Bewertung einer durch Leitungen belasteten Liegenschaft als Richtmaß herangezogen werden kann. Für diesen Zweck wurden Musterfälle definiert, bei deren Betrachtung zwischen verschiedenen Leitungsverläufen und Leitungssituierungen, unterschiedlicher Nutzung der Mustergrundstücke, Verschiedenartigkeit der Leitungen und dadurch der üblichen Schutzstreifen differenziert wurde. Die Auswertung der Immobilienmaklerbefragung erfolgt in Kapitel 5. Kapitel 1 beschreibt in Kurzform die heute üblichen Methoden der Verkehrswertermittlung von Immobilien. Konkret werden das Vergleichswert-, das Ertragswert- und das Sachwertverfahren kurz behandelt. Kapitel 2 beschreibt die Unterschiede zwischen Leitungsrechten und Leitungsdienstbarkeiten und es wird auf das österreichische Grundbuchsrecht und den österreichischen Kataster eingegangen. Kapitel 3 untersucht allgemeine Grundsätze der Entschädigung für die Begründung von Leitungsrechten bzw. Leitungsdienstbarkeiten und stellt die verschiedenen Methoden vor. Kapitel 4 behandelt Aspekte zur Errichtung und zum Betrieb von Mobilfunkanlagen. In der Zeit der „Handies“ und schnell fortschreitender Entwicklung im Mobilfunksektor wird dieser Bereich der Beeinflussung des Menschen durch Funk- und Sendeeinrichtungen immer stärker. Neben der direkten Wertbeeinflussung von Immobilien durch diverse Sendeeinrichtungen rückt auch die Beachtung von gesundheitsschädigenden Einwirkungen auf den Menschen immer mehr in den Vordergrund. Kapitel 6 und 7 stellt die Ergebnisse der Befragung von Behörden, Leitungsbetreibern und privater Personen dar. Die Bearbeitung dieses Themas zeigt, dass es sehr schwierig ist, die Einflussfaktoren, welche aus Leitungsrechten resultieren, schematisch darzustellen und für sie eine allgemeine Gültigkeit abzuleiten. Es wird immer jeder Einzelfall von einem anderen verschieden sein. Für eine Kaufentscheidung spielt immer das sensible Kaufverhalten der Käufer die wesentliche Rolle. Die Wertbeeinflussung einer Immobilie wird sich immer aus der Einschränkung der Marktfähigkeit derselben ergeben. Auch wenn z. B. eine Wertminderung einer Immobilie in Geld ausgedrückt werden kann, ist es dennoch für den Sachverständigen sehr schwer festzustellen, ob diese Wertminderung ihre Wurzeln z. B. in der Beeinflussung durch eine Leitung hat, weil das Käuferverhalten auch durch eine Vielzahl irrationaler Faktoren geprägt ist. Ist ein Grundstück durch ein Leitungsrecht belastet, kann in den meisten Fällen keine allgemein gültige Aussage über das Verhalten potentieller Käufer gemacht werden. Bei nicht nur rationalen Entscheidungen des Käuferpublikums spielt auch der Einfluss der Medien (besonders bei Funk- und Sendeanalgen) eine beachtliche Rolle. Der im Rahmen dieser Magisterarbeit erstellte Schätzungsrahmen gibt für die Einschätzung der Wertbeeinflussung einen relativ engen prozentuellen Bereich der Verkehrswertminderung vor. Durch genaue und entsprechende Begutachtung und Bewertung der jeweiligen Situation werden in der Bewertungspraxis der Realität sehr nahe liegende Ergebnisse zu erwarten sein.
Leitungsrechte und Leitungsdienstbarkeiten beeinflussen den Verkehrswert der Grundstücke, über welche sie geführt werden. Diese Diplomarbeit ist ein Versuch, den vermögenswerten Einfluss diverser Leitungen auf Immobilien von anderen wertbeeinflussenden Faktoren losgelöst zu betrachten. Im Rahmen einer Immobilienmaklerbefragung im Bundesland Salzburg wurde eine Art Schätzungsrahmen entwickelt, der im Falle einer Bewertung einer durch Leitungen belasteten Liegenschaft als Richtmaß herangezogen werden kann. Für diesen Zweck wurden Musterfälle definiert, bei deren Betrachtung zwischen verschiedenen Leitungsverläufen und Leitungssituierungen, unterschiedlicher Nutzung der Mustergrundstücke, Verschiedenartigkeit der Leitungen und dadurch der üblichen Schutzstreifen differenziert wurde. Die Auswertung der Immobilienmaklerbefragung erfolgt in Kapitel 5. Kapitel 1 beschreibt in Kurzform die heute üblichen Methoden der Verkehrswertermittlung von Immobilien. Konkret werden das Vergleichswert-, das Ertragswert- und das Sachwertverfahren kurz behandelt. Kapitel 2 beschreibt die Unterschiede zwischen Leitungsrechten und Leitungsdienstbarkeiten und es wird auf das österreichische Grundbuchsrecht und den österreichischen Kataster eingegangen. Kapitel 3 untersucht allgemeine Grundsätze der Entschädigung für die Begründung von Leitungsrechten bzw. Leitungsdienstbarkeiten und stellt die verschiedenen Methoden vor. Kapitel 4 behandelt Aspekte zur Errichtung und zum Betrieb von Mobilfunkanlagen. In der Zeit der „Handies“ und schnell fortschreitender Entwicklung im Mobilfunksektor wird dieser Bereich der Beeinflussung des Menschen durch Funk- und Sendeeinrichtungen immer stärker. Neben der direkten Wertbeeinflussung von Immobilien durch diverse Sendeeinrichtungen rückt auch die Beachtung von gesundheitsschädigenden Einwirkungen auf den Menschen immer mehr in den Vordergrund. Kapitel 6 und 7 stellt die Ergebnisse der Befragung von Behörden, Leitungsbetreibern und privater Personen dar. Die Bearbeitung dieses Themas zeigt, dass es sehr schwierig ist, die Einflussfaktoren, welche aus Leitungsrechten resultieren, schematisch darzustellen und für sie eine allgemeine Gültigkeit abzuleiten. Es wird immer jeder Einzelfall von einem anderen verschieden sein. Für eine Kaufentscheidung spielt immer das sensible Kaufverhalten der Käufer die wesentliche Rolle. Die Wertbeeinflussung einer Immobilie wird sich immer aus der Einschränkung der Marktfähigkeit derselben ergeben. Auch wenn z. B. eine Wertminderung einer Immobilie in Geld ausgedrückt werden kann, ist es dennoch für den Sachverständigen sehr schwer festzustellen, ob diese Wertminderung ihre Wurzeln z. B. in der Beeinflussung durch eine Leitung hat, weil das Käuferverhalten auch durch eine Vielzahl irrationaler Faktoren geprägt ist. Ist ein Grundstück durch ein Leitungsrecht belastet, kann in den meisten Fällen keine allgemein gültige Aussage über das Verhalten potentieller Käufer gemacht werden. Bei nicht nur rationalen Entscheidungen des Käuferpublikums spielt auch der Einfluss der Medien (besonders bei Funk- und Sendeanalgen) eine beachtliche Rolle. Der im Rahmen dieser Magisterarbeit erstellte Schätzungsrahmen gibt für die Einschätzung der Wertbeeinflussung einen relativ engen prozentuellen Bereich der Verkehrswertminderung vor. Durch genaue und entsprechende Begutachtung und Bewertung der jeweiligen Situation werden in der Bewertungspraxis der Realität sehr nahe liegende Ergebnisse zu erwarten sein.
Erdschwerefeldbestimmung unter Anwendung des Energieintegralansatzes auf CHAMP Orbit- und Akzelerometriedaten
Institut für Navigation und Satellitengeodäsie. TU-Graz 2004. Betreuer: Ao. Univ.Prof. Dr. Roland Pail.
Kurzfassung/Abstract
Der Inhalt dieser Magisterarbeit ist die Anwendung des Energieintegralansatzes auf Orbit- und Akzelerometriedaten der Satellitenmission CHAMP (CHAllenging Minisatellite Payload) zum Zwecke einer globalen Erdschwerefeldbestimmung. Der Energieintegralansatz ist eine Erweiterung des fundamentalen Energieerhaltungsatzes unter Berücksichtigung von nicht-konservativen Kräften (Reibung). Der Ansatz hat sich als leistungsfähiges Werkzeug zur Bestimmung des langwelligen Anteils des Schwerefeldes erwiesen, ohne dass a priori Information über das Schwerefeld nötig ist. Die mathematischen und physikalischen Grundlagen der Parametrisierung des Schwerefeldes (durch Kugelfunktionen) und des Energieintegralansatzes werden detailliert hergeleitet. Die Theorie der Quaternionen wird ausführlich behandelt, welche in der Transformation der Akzelerometriedaten Anwendung findet. Für die Datenaufbereitung der Akzelerometriedaten wurde ein Softwaremodul entwickelt und dokumentiert. Die Energieintegralsoftware ENIGMA (ENergy Integral Gravity field Modelling Approach), entwickelt im Rahmen des Projektes GOCE DAPC Graz (Gravity Field and steady-state Ocean Circulation Explorer; Data Archiving and Processing Center), wurde in der Folge auf die Orbit- und Akzelerometriedaten von CHAMP angewendet. Die Schritte zur Bestimmung eines globalen Schwerefeldes, entwickelt bis zum harmonischen Grad 70, werden aufgezeigt, beschrieben und analysiert. Ein kritischer Ausblick beschließt diese Arbeit.
Der Inhalt dieser Magisterarbeit ist die Anwendung des Energieintegralansatzes auf Orbit- und Akzelerometriedaten der Satellitenmission CHAMP (CHAllenging Minisatellite Payload) zum Zwecke einer globalen Erdschwerefeldbestimmung. Der Energieintegralansatz ist eine Erweiterung des fundamentalen Energieerhaltungsatzes unter Berücksichtigung von nicht-konservativen Kräften (Reibung). Der Ansatz hat sich als leistungsfähiges Werkzeug zur Bestimmung des langwelligen Anteils des Schwerefeldes erwiesen, ohne dass a priori Information über das Schwerefeld nötig ist. Die mathematischen und physikalischen Grundlagen der Parametrisierung des Schwerefeldes (durch Kugelfunktionen) und des Energieintegralansatzes werden detailliert hergeleitet. Die Theorie der Quaternionen wird ausführlich behandelt, welche in der Transformation der Akzelerometriedaten Anwendung findet. Für die Datenaufbereitung der Akzelerometriedaten wurde ein Softwaremodul entwickelt und dokumentiert. Die Energieintegralsoftware ENIGMA (ENergy Integral Gravity field Modelling Approach), entwickelt im Rahmen des Projektes GOCE DAPC Graz (Gravity Field and steady-state Ocean Circulation Explorer; Data Archiving and Processing Center), wurde in der Folge auf die Orbit- und Akzelerometriedaten von CHAMP angewendet. Die Schritte zur Bestimmung eines globalen Schwerefeldes, entwickelt bis zum harmonischen Grad 70, werden aufgezeigt, beschrieben und analysiert. Ein kritischer Ausblick beschließt diese Arbeit.
Hydrologie und GIS - Untersuchungen zur Berechnung von Hochwasser-Szenarien mit state-of-the-art-Software und Aufbereitung der Ergebnisse für ein GIS
Institut für Geoinformation, Technische Universität Graz, 2004. Begutachter: Ass.-Prof. Dipl.-Ing. Dr. Walter Klostius.
Kurzfassung/Abstract
Für die Stadt Graz soll ein Notfallplan für verschiedene Hochwasserszenarien erstellt werden, wobei die Darstellung der überfluteten Gebiete einen Schwerpunkt bildet. Das primäre Ziel der vorliegenden Arbeit ist es, eine anwendergerechte Verbindung zwischen den hydrologischen Berechnungen und einem GIS (Geografisches Informationssystem) zu schaffen. Die Programmpakete RiverTools, SMS (Surface-Water Modeling System), HEC-RAS (Hydrologic Engineering Center’s River Analysis System), FloodArea und DHI (Danish Hydraulic Institute) werden eingehend auf ihre Eignung getestet. Dazu wird ein Testabschnitt gewählt, der möglichst alle charakteristischen Eigenschaften des Gesamtgebietes beinhaltet. Das Hauptaugenmerk der Untersuchung wird dabei darauf gelegt, die zur Verfügung stehenden Geo-Daten für alle betrachteten Systeme nutzbar zu machen. Neben den jeweiligen Haupteinsatzgebieten der einzelnen Programme werden noch die entsprechenden Vor- und Nachteile angeführt. Weiters wird die Notwendigkeit, vorhandene Gebäude bei der Hochwasserberechnung zu berücksichtigen, untersucht und Lösungsmöglichkeiten dafür angegeben. Den Schlusspunkt der Arbeit stellt eine mit allen Programmen durchgeführte Berechnung der einzelnen Hochwasserszenarien und eine anschließende Aufbereitung der Ergebnisse für eine weitere Verwendung in einem GIS dar.
Für die Stadt Graz soll ein Notfallplan für verschiedene Hochwasserszenarien erstellt werden, wobei die Darstellung der überfluteten Gebiete einen Schwerpunkt bildet. Das primäre Ziel der vorliegenden Arbeit ist es, eine anwendergerechte Verbindung zwischen den hydrologischen Berechnungen und einem GIS (Geografisches Informationssystem) zu schaffen. Die Programmpakete RiverTools, SMS (Surface-Water Modeling System), HEC-RAS (Hydrologic Engineering Center’s River Analysis System), FloodArea und DHI (Danish Hydraulic Institute) werden eingehend auf ihre Eignung getestet. Dazu wird ein Testabschnitt gewählt, der möglichst alle charakteristischen Eigenschaften des Gesamtgebietes beinhaltet. Das Hauptaugenmerk der Untersuchung wird dabei darauf gelegt, die zur Verfügung stehenden Geo-Daten für alle betrachteten Systeme nutzbar zu machen. Neben den jeweiligen Haupteinsatzgebieten der einzelnen Programme werden noch die entsprechenden Vor- und Nachteile angeführt. Weiters wird die Notwendigkeit, vorhandene Gebäude bei der Hochwasserberechnung zu berücksichtigen, untersucht und Lösungsmöglichkeiten dafür angegeben. Den Schlusspunkt der Arbeit stellt eine mit allen Programmen durchgeführte Berechnung der einzelnen Hochwasserszenarien und eine anschließende Aufbereitung der Ergebnisse für eine weitere Verwendung in einem GIS dar.
Auswirkungen der Unsicherheit der Grundsteuerkatasterfläche auf den Wert von Grundstücken
Institut für Navigation und Satellitengeodäsie. TU-Graz 2004. Begutachter: Univ.Prof. Dipl.-Ing. Dr.techn. Bernhard Hofmann-Wellenhof.
Kurzfassung/Abstract
Diese Diplomarbeit soll die Verwandtschaft zwischen Geodäsie, der Wissenschaft der Vermessung und anschließenden Darstellung von Grund und Boden jeweils in unterschiedlichster Art und Weise, und Liegenschaftsbewertung, der Methode zur Analyse von Verkehrswerten von bebauten und unbebauten Grundstücken, aufzeigen. Neben dem österreichischen Kataster und den Grundlagen der Wertermittlung wird weiters im speziellen auf die Grundstücksfläche eingegangen, die einerseits weitgehend aus der Geschichte des Katasters abgeleitet werden kann und die andererseits aber vor allem bei Verträgen des täglichen Rechtsverkehrs eine wesentliche Rolle spielt. Es ist nicht allgemein bekannt, dass im österreichischen Kataster zwei Rechtssysteme parallel existieren nämlich der Grundsteuer- bzw. der Grenzkataster. Im letzteren kann man der Flächenangabe des Grundbuches vertrauen, dass diese mit der Naturfläche übereinstimmt. Die Fläche, welche aus dem Grundsteuerkataster entnommen wird, kann mit Unsicherheiten unterschiedlicher Größe behaftet sein. Diese unbekannte Variable soll hier untersucht und statistisch ausgewertet werden. Die Fläche ist es, die die Wertermittlung von unbebauten Grundstücken stark beeinflusst; daher soll auch im Rahmen dieser Diplomarbeit abschließend die Auswirkung der Unsicherheit auf die Bewertung exemplarisch dargestellt werden.
Diese Diplomarbeit soll die Verwandtschaft zwischen Geodäsie, der Wissenschaft der Vermessung und anschließenden Darstellung von Grund und Boden jeweils in unterschiedlichster Art und Weise, und Liegenschaftsbewertung, der Methode zur Analyse von Verkehrswerten von bebauten und unbebauten Grundstücken, aufzeigen. Neben dem österreichischen Kataster und den Grundlagen der Wertermittlung wird weiters im speziellen auf die Grundstücksfläche eingegangen, die einerseits weitgehend aus der Geschichte des Katasters abgeleitet werden kann und die andererseits aber vor allem bei Verträgen des täglichen Rechtsverkehrs eine wesentliche Rolle spielt. Es ist nicht allgemein bekannt, dass im österreichischen Kataster zwei Rechtssysteme parallel existieren nämlich der Grundsteuer- bzw. der Grenzkataster. Im letzteren kann man der Flächenangabe des Grundbuches vertrauen, dass diese mit der Naturfläche übereinstimmt. Die Fläche, welche aus dem Grundsteuerkataster entnommen wird, kann mit Unsicherheiten unterschiedlicher Größe behaftet sein. Diese unbekannte Variable soll hier untersucht und statistisch ausgewertet werden. Die Fläche ist es, die die Wertermittlung von unbebauten Grundstücken stark beeinflusst; daher soll auch im Rahmen dieser Diplomarbeit abschließend die Auswirkung der Unsicherheit auf die Bewertung exemplarisch dargestellt werden.
Integration von GNSS und Loran-C auf Rohdatenbasis
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2004. Begutachter: Univ.-Prof. Dipl.-Ing. Dr.techn. Bernhard Hofmann-Wellenhof, Prof. David Last (University of Wales)
Kurzfassung/Abstract
Obwohl die Verfahren der Satellitennavigation im Bereich Positionierung und Navigation eine bedeutende Rolle spielen, und obwohl es Bestrebungen gibt, neue Satellitennavigationssysteme wie beispielsweise das europäische Galileo zu entwickeln, können derartige Systeme die Anforderungen heutiger Navigation vielfach nicht ganz zufrieden stellen. Daher werden zukünftige Navigationssysteme eine Kombination aus Einzelsystemen darstellen, die sich gegenseitig optimal ergänzen. Da Loran-C hinsichtlich seiner Systemcharakteristik, speziell aber in Bezug auf das Ausbreitungsverhalten der Trägerwelle, zu GNSS komplementär ist, ist es ein möglicher Kandidat für eine Integration mit Satellitennavigation. Innerhalb der letzten Jahre wurden mehrere Forschungsprojekte durchgeführt, die die Eignung der GNSS/Loran-C Integration untersuchten, wobei erste Resultate sehr viel versprechend sind. Auch die fortschreitende Entwicklung von digitalen Loran-C Empfängern begünstigt die Idee eines integrierten GNSS/Loran-C Navigationssystems. Die Arbeit baut auf früheren Ergebnissen der Untersuchungen bezüglich GNSS/Loran-C Integration auf und führt die Entwicklung von Algorithmen zur Systemintegration auf Basis von Rohdaten weiter. Weiters werden Resultate von Messungen mit den zur Verfügung stehenden Empfängerprototypen gezeigt, die das Potenzial der entwickelten Methoden demonstrieren.
Obwohl die Verfahren der Satellitennavigation im Bereich Positionierung und Navigation eine bedeutende Rolle spielen, und obwohl es Bestrebungen gibt, neue Satellitennavigationssysteme wie beispielsweise das europäische Galileo zu entwickeln, können derartige Systeme die Anforderungen heutiger Navigation vielfach nicht ganz zufrieden stellen. Daher werden zukünftige Navigationssysteme eine Kombination aus Einzelsystemen darstellen, die sich gegenseitig optimal ergänzen. Da Loran-C hinsichtlich seiner Systemcharakteristik, speziell aber in Bezug auf das Ausbreitungsverhalten der Trägerwelle, zu GNSS komplementär ist, ist es ein möglicher Kandidat für eine Integration mit Satellitennavigation. Innerhalb der letzten Jahre wurden mehrere Forschungsprojekte durchgeführt, die die Eignung der GNSS/Loran-C Integration untersuchten, wobei erste Resultate sehr viel versprechend sind. Auch die fortschreitende Entwicklung von digitalen Loran-C Empfängern begünstigt die Idee eines integrierten GNSS/Loran-C Navigationssystems. Die Arbeit baut auf früheren Ergebnissen der Untersuchungen bezüglich GNSS/Loran-C Integration auf und führt die Entwicklung von Algorithmen zur Systemintegration auf Basis von Rohdaten weiter. Weiters werden Resultate von Messungen mit den zur Verfügung stehenden Empfängerprototypen gezeigt, die das Potenzial der entwickelten Methoden demonstrieren.
Geoidbestimmung mittels Schwereraum-Ansatz
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2004. Begutachter: Em.o.Univ.-Prof. Dipl.-Ing. Dr.h.c.mult. Dr.techn. Helmut Moritz, Prof. Dr. Fernando Sansò (Politecnico di Milano)
Kurzfassung/Abstract
Die Arbeit untersucht die Anwendbarkeit des Schwereraum-Ansatzes, der das freie Randwertproblem in ein fixes Randwertproblem überführt, zur Geoidbestimmung in seiner linearen Form. Die Kombination zweier unterschiedlicher Datensätze (Schwere und Lotrichtung) über das adjungierte Potential (im Schwereraum definiert) ermöglicht eine kombinierte Geoidlösung. Da die Lösung eine rekursiv definierte Funktion enthält, ist die Geoidbestimmung nur durch einen iterativen Prozess und die Kenntnis einer a priori Lösung möglich. Es handelt sich also um eine Methode zur Verbesserung und nicht um eine Methode zur Bestimmung des Geoids. Die numerische Lösung basiert auf der Anwendung der Methode der Punktmassen im Ortsbereich unter Verwendung von harmonischen Funktionalen als Näherung für die Lösung des Problems. Für den nichtlinearen Fall des Randwertproblems im Schwereraum-Ansatz wird ein physikalisches Modell eingeführt und eine numerische Methode auf Basis der Superposition von Schwerequellen bestimmt ("gravity confinement" Methode). Leider ist die Methode der Superposition für die betrachtete nichtlineare Differentialgleichung nicht möglich, wodurch noch keine endgültigen Resultate für die "gravity confinement" Methode erhalten wurden. Der lineare Lösungsansatz wird auf Schweredaten, astronomische und GPS-Beobachtungen (Testgebiet Tagus Tal), die im Rahmen des Doktorates bestimmt wurden, erfolgreich angewandt.
Die Arbeit untersucht die Anwendbarkeit des Schwereraum-Ansatzes, der das freie Randwertproblem in ein fixes Randwertproblem überführt, zur Geoidbestimmung in seiner linearen Form. Die Kombination zweier unterschiedlicher Datensätze (Schwere und Lotrichtung) über das adjungierte Potential (im Schwereraum definiert) ermöglicht eine kombinierte Geoidlösung. Da die Lösung eine rekursiv definierte Funktion enthält, ist die Geoidbestimmung nur durch einen iterativen Prozess und die Kenntnis einer a priori Lösung möglich. Es handelt sich also um eine Methode zur Verbesserung und nicht um eine Methode zur Bestimmung des Geoids. Die numerische Lösung basiert auf der Anwendung der Methode der Punktmassen im Ortsbereich unter Verwendung von harmonischen Funktionalen als Näherung für die Lösung des Problems. Für den nichtlinearen Fall des Randwertproblems im Schwereraum-Ansatz wird ein physikalisches Modell eingeführt und eine numerische Methode auf Basis der Superposition von Schwerequellen bestimmt ("gravity confinement" Methode). Leider ist die Methode der Superposition für die betrachtete nichtlineare Differentialgleichung nicht möglich, wodurch noch keine endgültigen Resultate für die "gravity confinement" Methode erhalten wurden. Der lineare Lösungsansatz wird auf Schweredaten, astronomische und GPS-Beobachtungen (Testgebiet Tagus Tal), die im Rahmen des Doktorates bestimmt wurden, erfolgreich angewandt.
Troposphärische Laufzeitverzögerungen in der VLBI
Fakultät für Mathematik und Geoinformation, Technische Universität Wien 2004. 1. Begutachter: Univ.-Prof. Dr.-Ing. Harald Schuh, Institut für Geodäsie und Geophysik; 2. Begutachter: Univ.-Prof. Dr.-Ing. James Campbell, Geodätisches Institut der Universität Bonn.
Kurzfassung/Abstract
Die Modellierung der troposphärischen Laufzeitverzögerungen ist neben instrumentellen Einflüssen die bedeutendste Fehlerquelle in der geodätischen VLBI (Very Long Baseline Interferometry). Kritisch sind dabei die Projektionsfunktionen, welche die hydrostatischen und feuchten Laufzeitverzögerungen in Zenitrichtung auf beliebige Elevationen abbilden. In den letzten Jahren sind numerische Wettermodelle auf ihre Eignung untersucht worden, die Projektionsfunktionen daraus abzuleiten und so die Genauigkeit der troposphärischen Modellierung verbessern zu können. Beim Ansatz der VMF (Vienna Mapping Function) werden aus den meteorologischen Profilen über jeder VLBI-Station die Projektionsfunktionen mittels exakter Strahlverfolgung ermittelt, wodurch keine Information der Wettermodelle verloren geht. Im Gegensatz dazu werden beim Ansatz der IMF (Isobaric Mapping Function) von Niell (2001) Übergangsparameter auf einem globalen Raster verwendet. Das hat zwar den Vorteil, dass die Parameter für die ganze Erde zur Verfügung stehen, also im Prinzip auch für alle Stationen anderer Messverfahren (GPS, Glonass, ..), allerdings gehen dabei einerseits durch die Übergangsparameter und andererseits durch die Interpolation auf dem globalen Raster wertvolle Informationen verloren. In der vorliegenden Arbeit werden die Daten des ECMWF (European Centre for Medium-Range Weather Forecasts) für die Berechnung der Projektionsfunktionen verwendet, und Untersuchungen mit VLBI-Experimenten seit Jänner 2002 zeigen, dass die Wiederholbarkeiten von Basislinienlängen im Vergleich zur Auswertung mit den NMF-Projektionsfunktionen von Niell (1996) mit der IMF und insbesondere der VMF deutlich verbessert werden. Außerdem wird von der zu erwartenden Verbesserung der numerischen Wettermodelle vor allem die VMF profitieren. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universtität Wien als Heft 68 veröffentlicht.
Die Modellierung der troposphärischen Laufzeitverzögerungen ist neben instrumentellen Einflüssen die bedeutendste Fehlerquelle in der geodätischen VLBI (Very Long Baseline Interferometry). Kritisch sind dabei die Projektionsfunktionen, welche die hydrostatischen und feuchten Laufzeitverzögerungen in Zenitrichtung auf beliebige Elevationen abbilden. In den letzten Jahren sind numerische Wettermodelle auf ihre Eignung untersucht worden, die Projektionsfunktionen daraus abzuleiten und so die Genauigkeit der troposphärischen Modellierung verbessern zu können. Beim Ansatz der VMF (Vienna Mapping Function) werden aus den meteorologischen Profilen über jeder VLBI-Station die Projektionsfunktionen mittels exakter Strahlverfolgung ermittelt, wodurch keine Information der Wettermodelle verloren geht. Im Gegensatz dazu werden beim Ansatz der IMF (Isobaric Mapping Function) von Niell (2001) Übergangsparameter auf einem globalen Raster verwendet. Das hat zwar den Vorteil, dass die Parameter für die ganze Erde zur Verfügung stehen, also im Prinzip auch für alle Stationen anderer Messverfahren (GPS, Glonass, ..), allerdings gehen dabei einerseits durch die Übergangsparameter und andererseits durch die Interpolation auf dem globalen Raster wertvolle Informationen verloren. In der vorliegenden Arbeit werden die Daten des ECMWF (European Centre for Medium-Range Weather Forecasts) für die Berechnung der Projektionsfunktionen verwendet, und Untersuchungen mit VLBI-Experimenten seit Jänner 2002 zeigen, dass die Wiederholbarkeiten von Basislinienlängen im Vergleich zur Auswertung mit den NMF-Projektionsfunktionen von Niell (1996) mit der IMF und insbesondere der VMF deutlich verbessert werden. Außerdem wird von der zu erwartenden Verbesserung der numerischen Wettermodelle vor allem die VMF profitieren. Die Dissertation wird als Geowissenschaftliche Mitteilung der Studienrichtung Vermessungswesen und Geoinformation der Technischen Universtität Wien als Heft 68 veröffentlicht.
Ein Topographisches Mars Informationssystem Konzepte für Verwaltung, Analyse und Visualisieurng planetenweiter Daten
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2004. Begutachter: Univ.Prof. Dr.-Ing. Jörg Albertz, Technische Universität Berlin und Ao.Univ.Prof. Dr. Josef Jansa TU Wien, Prüfer: Ao.Univ.Prof. Dr. Georg Gartner, TU Wien und Ao.Univ.Prof. Dr. Josef Jansa.
Kurzfassung/Abstract
Das Institut für Photogrammetrie und Fernerkundung (I.P.F.) ist am Mars Express Projekt der Europäischen Raumfahrtsbehörde ESA beteiligt. Die Aufgabe des I.P.F. ist die Entwicklung eines Topographischen Mars Informationssystems (TMIS). Dieses soll die enormen Mengen an Bilddaten, welche vom hochauflösenden Kamerasystem High Resolution Stereo Camera (HRSC) erfasst werden, effizient verwalten. Die Verwaltung topographischer Daten als Originalpunktewolken sowie auch davon abgeleiteter digitaler Geländemodelle (DGMe) soll ebenfalls möglich sein. TMIS stellt somit die zentrale Datendrehscheibe innerhalb der Projektgruppe HRSC on Mars Express dar. Im ersten Teil der Arbeit werden Konzepte zur Modellierung und Verwaltung räumlicher Daten unter Berücksichtigung vorhandener Standards und Normen beschrieben. Die Möglichkeiten auf Extensible Markup Language (XML) basierten Formaten für Datenhaltung und Datenaustausch raumbezogener Daten sowie für deren kartographische Aufbereitung zur Darstellung im Internet werden im Detail untersucht. Derzeitig verfügbare Implementierungen von Web Map Services (WMS) liefern meist statische Kartendarstellungen, obwohl seitens der Spezifikation von WMS auch objekt-basierte Ausgabeformate wie z.B. Scalable Vector Graphics (SVG) unterstützt werden. Im Rahmen der Entwicklung einer kartenbasierten Benutzerschnittstelle für TMIS wurden die Möglichkeiten von SVG eingehend untersucht. Basierend auf den resultierenden Erkenntnissen werden mögliche Erweiterungen zur Verbesserung der Anwendbarkeit vorhandener XML basierter Formate im Bereich der Geodatenmodellierung und –verwaltung präsentiert. Abschließend wird der gegenwärtige Implementierungsstand von TMIS als Anwendungsbeispiel der beschriebenen Methoden gezeigt. Im zweiten Teil der Arbeit werden Methoden zur Bearbeitung und Analyse topographischer Marsdaten untersucht. Als Testdatensatz dienten Bild- und Topographiedaten welche im Rahmen der NASA Mission Mars Global Surveyor (MGS) erfasst wurden. Zunächst wird eine Methode zur Detektion und anschließenden Elimination grober Datenfehler, welche in den Originalpunkten enthalten sind, vorgestellt. Die Ableitung homogener und von zufälligen Fehlern bereinigter DGMe als Grundlage für weiterführende Analysen wird ebenfalls näher beschrieben. Seit die Oberfläche des Mars erkundet wird drängt sich die Frage auf, ob es in früheren Zeiten Oberflächenwasser gab. Um der Beantwortung dieser Frage näher zu kommen, wurden rasterbasierte, hydrologische Analysemethoden an ausgewählten, möglicherweise durch Oberflächenwasser geformten Bereichen des Mars angewandt und die Ergebnisse visuell aufbereitet. Als Abschluss der Arbeit werden dreidimensionale Visualisierungen dieser Resultate, unter anderem zur Darstellung im Internet, präsentiert.
Das Institut für Photogrammetrie und Fernerkundung (I.P.F.) ist am Mars Express Projekt der Europäischen Raumfahrtsbehörde ESA beteiligt. Die Aufgabe des I.P.F. ist die Entwicklung eines Topographischen Mars Informationssystems (TMIS). Dieses soll die enormen Mengen an Bilddaten, welche vom hochauflösenden Kamerasystem High Resolution Stereo Camera (HRSC) erfasst werden, effizient verwalten. Die Verwaltung topographischer Daten als Originalpunktewolken sowie auch davon abgeleiteter digitaler Geländemodelle (DGMe) soll ebenfalls möglich sein. TMIS stellt somit die zentrale Datendrehscheibe innerhalb der Projektgruppe HRSC on Mars Express dar. Im ersten Teil der Arbeit werden Konzepte zur Modellierung und Verwaltung räumlicher Daten unter Berücksichtigung vorhandener Standards und Normen beschrieben. Die Möglichkeiten auf Extensible Markup Language (XML) basierten Formaten für Datenhaltung und Datenaustausch raumbezogener Daten sowie für deren kartographische Aufbereitung zur Darstellung im Internet werden im Detail untersucht. Derzeitig verfügbare Implementierungen von Web Map Services (WMS) liefern meist statische Kartendarstellungen, obwohl seitens der Spezifikation von WMS auch objekt-basierte Ausgabeformate wie z.B. Scalable Vector Graphics (SVG) unterstützt werden. Im Rahmen der Entwicklung einer kartenbasierten Benutzerschnittstelle für TMIS wurden die Möglichkeiten von SVG eingehend untersucht. Basierend auf den resultierenden Erkenntnissen werden mögliche Erweiterungen zur Verbesserung der Anwendbarkeit vorhandener XML basierter Formate im Bereich der Geodatenmodellierung und –verwaltung präsentiert. Abschließend wird der gegenwärtige Implementierungsstand von TMIS als Anwendungsbeispiel der beschriebenen Methoden gezeigt. Im zweiten Teil der Arbeit werden Methoden zur Bearbeitung und Analyse topographischer Marsdaten untersucht. Als Testdatensatz dienten Bild- und Topographiedaten welche im Rahmen der NASA Mission Mars Global Surveyor (MGS) erfasst wurden. Zunächst wird eine Methode zur Detektion und anschließenden Elimination grober Datenfehler, welche in den Originalpunkten enthalten sind, vorgestellt. Die Ableitung homogener und von zufälligen Fehlern bereinigter DGMe als Grundlage für weiterführende Analysen wird ebenfalls näher beschrieben. Seit die Oberfläche des Mars erkundet wird drängt sich die Frage auf, ob es in früheren Zeiten Oberflächenwasser gab. Um der Beantwortung dieser Frage näher zu kommen, wurden rasterbasierte, hydrologische Analysemethoden an ausgewählten, möglicherweise durch Oberflächenwasser geformten Bereichen des Mars angewandt und die Ergebnisse visuell aufbereitet. Als Abschluss der Arbeit werden dreidimensionale Visualisierungen dieser Resultate, unter anderem zur Darstellung im Internet, präsentiert.
Gleichzeitig-gegenseitige Zenitwinkelmessung über größere Entfernungen mit automatischen Zielsystemen
Fakultät für Mathematik und Geoinformation, Technischen Universität Wien, 2003. 1. Begutachter: o.Univ. Prof. Dr.-Ing. Heribert Kahmen, Institut für Geodäsie und Geophysik Abteilung Angewandte Geodäsie und Ingenieurgeodäsie, TU Wien, 2. Begutachter: o.Univ. Prof. Dr.-Ing. habil. Wolfgang Niemeier, Institut für Geodäsie und Photogrammetrie, TU Braunschweig.
Kurzfassung/Abstract
Die Konstruktion von Messrobotern mit Videosensoren ermöglicht, dass die geodätischen Präzisionsmessungen hochgenau, zuverlässig und unter dem Aspekt der Wirtschaftlichkeit durchgeführt werden können. Da in diesen geodätischen Instrumenten eine CCD-Kamera integriert ist, erscheint es erstmals möglich, Refraktionseffekte „hochfrequent“ über kontinuierliche Zenitwinkelbeobachtungen zu bestimmen. In dieser Arbeit soll dargestellt werden, dass unter Verwendung von zwei Videotheodoliten sowie mit zwei identischen speziell angefertigten Zielmarken ein Messsystem mit vollautomatischer Zielerfassung zur hochfrequenten und streng synchronen Messung von gleichzeitig-gegenseitigen Zenitwinkel realisiert wurde. Durch das Verfahren von gleichzeitig-gegenseitigen Zenitwinkelmessungen mit Videotheodoliten wird gezeigt, dass unter bestimmten Voraussetzungen die trigonometrische Höhenübertragung in den Genauigkeitsbereich des geometrischen Feinnivellements vordringen kann. Es wird ein neues Modell entwickelt, welches mit hoher Frequenz die Zenitwinkelmessung erlaubt. Im Rahmen von Laboruntersuchungen wird die prinzipielle Funktionsfähigkeit des Messsystems gezeigt. Hieran schließen sich die Messungen unter realen Atmosphärenbedingungen in Feldversuchen an. Bei den Feldexperimenten auf kurzen Strecken konnten am Tage bei jeder Witterung ähnliche Genauigkeiten wie bei den Laborversuchen erzielt werden. Auf längeren Strecken erhält man entsprechende Ergebnisse nur bei Messungen in der Nacht oder bei bedecktem Himmel. Die Sessionslänge ist abhängig von der Streckenlänge, Tag/Nacht Messungen und den Witterungsbedingungen. Die Autokorrelationsfunktionen der Höhenunterschiede zeigten für verschiedene Messserien unterschiedliche Korrelationszeiten. Sie sind unabhängig von der Streckenlänge aber abhängig von äußeren Bedingungen. Es wird experimentell gezeigt, dass sich mit dem Modell in der Praxis Genauigkeiten von etwa 1 mm bei extremen Wetterbedingungen und bei Höhenübertragungen über Wasserflächen mit Entfernungen bis zu 400 m erreichen lassen. Durch Berechnung mehrerer Nivellementschleifenschlüsse in einer vernetzten Messkonfiguration konnten die Genauigkeitsangaben zur Höhenübertragung bestätigt werden. Es werden Genauigkeiten erreicht, wie sie beim Feinnivellement gefordert werden. Schlussfolgerungen und Vorschläge zur Überprüfung und Minituriasierung des Messsystems beenden diese Arbeit. Die Arbeit wurde als Geowissenschatliche Mitteilung am Institut für Geodäsie und Geophysik, Heft Nr. 67 veröffentlicht.
Die Konstruktion von Messrobotern mit Videosensoren ermöglicht, dass die geodätischen Präzisionsmessungen hochgenau, zuverlässig und unter dem Aspekt der Wirtschaftlichkeit durchgeführt werden können. Da in diesen geodätischen Instrumenten eine CCD-Kamera integriert ist, erscheint es erstmals möglich, Refraktionseffekte „hochfrequent“ über kontinuierliche Zenitwinkelbeobachtungen zu bestimmen. In dieser Arbeit soll dargestellt werden, dass unter Verwendung von zwei Videotheodoliten sowie mit zwei identischen speziell angefertigten Zielmarken ein Messsystem mit vollautomatischer Zielerfassung zur hochfrequenten und streng synchronen Messung von gleichzeitig-gegenseitigen Zenitwinkel realisiert wurde. Durch das Verfahren von gleichzeitig-gegenseitigen Zenitwinkelmessungen mit Videotheodoliten wird gezeigt, dass unter bestimmten Voraussetzungen die trigonometrische Höhenübertragung in den Genauigkeitsbereich des geometrischen Feinnivellements vordringen kann. Es wird ein neues Modell entwickelt, welches mit hoher Frequenz die Zenitwinkelmessung erlaubt. Im Rahmen von Laboruntersuchungen wird die prinzipielle Funktionsfähigkeit des Messsystems gezeigt. Hieran schließen sich die Messungen unter realen Atmosphärenbedingungen in Feldversuchen an. Bei den Feldexperimenten auf kurzen Strecken konnten am Tage bei jeder Witterung ähnliche Genauigkeiten wie bei den Laborversuchen erzielt werden. Auf längeren Strecken erhält man entsprechende Ergebnisse nur bei Messungen in der Nacht oder bei bedecktem Himmel. Die Sessionslänge ist abhängig von der Streckenlänge, Tag/Nacht Messungen und den Witterungsbedingungen. Die Autokorrelationsfunktionen der Höhenunterschiede zeigten für verschiedene Messserien unterschiedliche Korrelationszeiten. Sie sind unabhängig von der Streckenlänge aber abhängig von äußeren Bedingungen. Es wird experimentell gezeigt, dass sich mit dem Modell in der Praxis Genauigkeiten von etwa 1 mm bei extremen Wetterbedingungen und bei Höhenübertragungen über Wasserflächen mit Entfernungen bis zu 400 m erreichen lassen. Durch Berechnung mehrerer Nivellementschleifenschlüsse in einer vernetzten Messkonfiguration konnten die Genauigkeitsangaben zur Höhenübertragung bestätigt werden. Es werden Genauigkeiten erreicht, wie sie beim Feinnivellement gefordert werden. Schlussfolgerungen und Vorschläge zur Überprüfung und Minituriasierung des Messsystems beenden diese Arbeit. Die Arbeit wurde als Geowissenschatliche Mitteilung am Institut für Geodäsie und Geophysik, Heft Nr. 67 veröffentlicht.
Erfassung der räumlichen und zeitlichen Veränderung von Bodenfeuchtemustern in semiariden Gebieten mittels ERS-1/2 InSAR Zeitreihen
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2003. 1. Begutachter: Prof. Dr. Wolfgang Wagner, Institut für Photogrammetrie und Fernerkundung, 2. Begutachter: Prof. Dr. Friedrich Wieneke, Ludwig-Maximilian-Universität München.
Kurzfassung/Abstract
Im Zuge des globalen Klimawandels sowie der Bevölkerungsexplosion des 21. Jahrhunderts gewinnt die Thematik „Wassermanagement“ zunehmend an Bedeutung. Insbesondere aride und semiaride Regionen zeigen sich aufgrund einer wachsenden räumlichen und zeitlichen Variabilität der Niederschläge von einer steigenden Wasserproblematik stark betroffen. Zusätzlich zu einer zunehmenden Frequenz und Intensität von Dürresituationen wächst gleichzeitig die Gefahr extremer Hochwasserereignisse in den Herbst und Wintermonaten aufgrund einer mit den ansteigenden Meeresoberflächentemperaturen verstärkten Zyklonenaktivität. Das wachsende Ausmaß der globalen Wasserproblematik unterstreicht die zunehmende Bedeutung von Dürre- und Hochwasserwarnsystemen, um Gefahrenpotenziale bereits frühzeitig erkennen und darauf reagieren zu können. Die entscheidende Voraussetzung für derartige Systeme ist die Kenntnis der räumlichen Bodenfeuchteverteilung von Flusseinzugsgebieten sowie deren Änderung über die Zeit. Indem die Bodenfeuchtesituation das Abflussverhalten des Einzugsgebietes steuert, besitzt sie einen entscheidenden Einfluss auf die Grundwasserbildung bis hin zum Entstehen von Flutkatastrophen. Die Mikrowellenfernerkundung bietet aufgrund ihrer Sensibilität hinsichtlich einer Feuchteänderung sowie der wetter- und tageszeitenunabhängigen Aufnahmefähigkeit die Möglichkeit, die Bodenfeuchteverteilung eines Gebietes kontinuierlich und flächenhaft zu erfassen. Da neben der Bodenfeuchte weitere Oberflächenparameter, wie die Vegetationsbedeckung, die Bodenrauhigkeit und Bodentextur, das Rückstreusignal beeinflussen, wurden in der Vergangenheit eine Vielzahl von Methoden entwickelt, um die Isolierung des Feuchteeinflusses zu ermöglichen und damit qualitative und quantitative Aussagen bezüglich des Bodenfeuchteaufkommens treffen zu können. Die Methoden erwiesen sich dabei jedoch in der Regel für eine großräumige Beschreibung der Bodenfeuchtesituation als ungeeignet. So beschränkte oftmals eine Abhängigkeit von in-situ Messungen sowie die hohe Komplexität und Rechenzeitintensivität die Feuchteerfassung auf einzelne Testflächen. Die vorliegende Studie beschreibt ein einfaches und robustes empirisches Verfahren, das auf Basis von ERS-1/2 InSAR Zeitreihen die großräumige Erfassung der räumlichen und zeitlichen Variation der Bodenfeuchte in ariden und semiariden Gebieten in Form eines Feuchte-Index ermöglicht. Indem die Kohärenz-Information der InSAR Daten dazu genutzt wird, eine mögliche Beeinflussung des Rückstreusignals durch eine biomassereiche Vegetationsbedeckung oder eine Änderung der Oberflächenrauhigkeit zu minimieren, ermöglicht der vorgestellte Change Detection Ansatz eine flächenhafte Bodenfeuchteerfassung über komplette Flusseinzugsgebiete ausschließlich auf Basis von Fernerkundungsdaten. Bei der kohärenzbasierten Gewährleistung der Verfahrensprämissen Biomassearmut und Rauhigkeitsstabilität ermöglichte das Verfahren die Beschreibung der räumlichen Bodenfeuchteverteilung mit geringen Schätzfehlern von 3,4 – 4,3 vol.%. Unterstützt durch die geringe Rechenzeit und hohe Stabilität begünstigen die Eigenschaften des Verfahrens eine Operationalisierung, um kontinuierlich Bodenfeuchtefelder eines Flusseinzugsgebietes zu generieren. Die gewonnenen Produkte eignen sich somit als Kalibrierungs- oder Validierungsgrundlage für die hydrologische Modellierung und für die Gewährleistung aktueller Flächeninformation für Dürre- und Hochwasserwarnsysteme. Die Studie wurde am Deutschen Fernerkundungsdatenzentrum (DFD) des Deutschen Zentrums für Luft- und Raumfahrt e.V. (DLR) in Oberpfaffenhofen (Deutschland) erstellt.
Im Zuge des globalen Klimawandels sowie der Bevölkerungsexplosion des 21. Jahrhunderts gewinnt die Thematik „Wassermanagement“ zunehmend an Bedeutung. Insbesondere aride und semiaride Regionen zeigen sich aufgrund einer wachsenden räumlichen und zeitlichen Variabilität der Niederschläge von einer steigenden Wasserproblematik stark betroffen. Zusätzlich zu einer zunehmenden Frequenz und Intensität von Dürresituationen wächst gleichzeitig die Gefahr extremer Hochwasserereignisse in den Herbst und Wintermonaten aufgrund einer mit den ansteigenden Meeresoberflächentemperaturen verstärkten Zyklonenaktivität. Das wachsende Ausmaß der globalen Wasserproblematik unterstreicht die zunehmende Bedeutung von Dürre- und Hochwasserwarnsystemen, um Gefahrenpotenziale bereits frühzeitig erkennen und darauf reagieren zu können. Die entscheidende Voraussetzung für derartige Systeme ist die Kenntnis der räumlichen Bodenfeuchteverteilung von Flusseinzugsgebieten sowie deren Änderung über die Zeit. Indem die Bodenfeuchtesituation das Abflussverhalten des Einzugsgebietes steuert, besitzt sie einen entscheidenden Einfluss auf die Grundwasserbildung bis hin zum Entstehen von Flutkatastrophen. Die Mikrowellenfernerkundung bietet aufgrund ihrer Sensibilität hinsichtlich einer Feuchteänderung sowie der wetter- und tageszeitenunabhängigen Aufnahmefähigkeit die Möglichkeit, die Bodenfeuchteverteilung eines Gebietes kontinuierlich und flächenhaft zu erfassen. Da neben der Bodenfeuchte weitere Oberflächenparameter, wie die Vegetationsbedeckung, die Bodenrauhigkeit und Bodentextur, das Rückstreusignal beeinflussen, wurden in der Vergangenheit eine Vielzahl von Methoden entwickelt, um die Isolierung des Feuchteeinflusses zu ermöglichen und damit qualitative und quantitative Aussagen bezüglich des Bodenfeuchteaufkommens treffen zu können. Die Methoden erwiesen sich dabei jedoch in der Regel für eine großräumige Beschreibung der Bodenfeuchtesituation als ungeeignet. So beschränkte oftmals eine Abhängigkeit von in-situ Messungen sowie die hohe Komplexität und Rechenzeitintensivität die Feuchteerfassung auf einzelne Testflächen. Die vorliegende Studie beschreibt ein einfaches und robustes empirisches Verfahren, das auf Basis von ERS-1/2 InSAR Zeitreihen die großräumige Erfassung der räumlichen und zeitlichen Variation der Bodenfeuchte in ariden und semiariden Gebieten in Form eines Feuchte-Index ermöglicht. Indem die Kohärenz-Information der InSAR Daten dazu genutzt wird, eine mögliche Beeinflussung des Rückstreusignals durch eine biomassereiche Vegetationsbedeckung oder eine Änderung der Oberflächenrauhigkeit zu minimieren, ermöglicht der vorgestellte Change Detection Ansatz eine flächenhafte Bodenfeuchteerfassung über komplette Flusseinzugsgebiete ausschließlich auf Basis von Fernerkundungsdaten. Bei der kohärenzbasierten Gewährleistung der Verfahrensprämissen Biomassearmut und Rauhigkeitsstabilität ermöglichte das Verfahren die Beschreibung der räumlichen Bodenfeuchteverteilung mit geringen Schätzfehlern von 3,4 – 4,3 vol.%. Unterstützt durch die geringe Rechenzeit und hohe Stabilität begünstigen die Eigenschaften des Verfahrens eine Operationalisierung, um kontinuierlich Bodenfeuchtefelder eines Flusseinzugsgebietes zu generieren. Die gewonnenen Produkte eignen sich somit als Kalibrierungs- oder Validierungsgrundlage für die hydrologische Modellierung und für die Gewährleistung aktueller Flächeninformation für Dürre- und Hochwasserwarnsysteme. Die Studie wurde am Deutschen Fernerkundungsdatenzentrum (DFD) des Deutschen Zentrums für Luft- und Raumfahrt e.V. (DLR) in Oberpfaffenhofen (Deutschland) erstellt.
Digital-photogrammetrische Bewegungsmessung von Blockgletschern — Entwurf eines Monitoring-Systems
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2004. Begutachter: Em.Univ.-Prof. Dipl.-Ing. Dr.techn. Gerhard Brandstätter, Univ.-Prof. Dr.rer.nat. Dipl.-Forstwirt Mathias Schardt
Kurzfassung/Abstract
Im Zuge der Permafrostforschung im Hochgebirge ist auch die Erforschung der Dynamik von Blockgletschern von großem Interesse. Die Digital-Photogrammetrie kann hier einen wichtigen Beitrag liefern, da sie die automatisierte Messung von dichten, hochgenauen Fließvektorfeldern ermöglicht, die wichtige Aufschlüsse über das dynamische Verhalten von Blockgletschern geben können. Diese Ergebnisse sind auch für die Klimaforschung von Interesse, da Blockgletscher als Indikatoren längerfristiger Klimaschwankungen gelten. Der im Rahmen dieser Arbeit vorgestellte Monitoring-Ansatz bedient sich eines eigens entwickelten Konzeptes zur Vorentzerrung der verwendeten, multi-temporalen Stereo-Luftbilder mit einem groben Geländemodell (Pseudo-Orthophoto-Konzept). Die hochgenaue digitale Punktübertragung und exakte, photogrammetrische Rekonstruktion erfolgt mit Hilfe eines Multi-Photo-Constrained-Matching-Algorithmus, der für die multi-temporale Punktübertragung in der Pseudo-Orthophoto-Geometrie adaptiert wurde. Die Arbeit beinhaltet weiters ausführliche Tests dieses neu entwickelten Matching-Verfahrens mit Hilfe simulierter Bilddaten. Die Arbeitsweise der auf diesem Prinzip basierenden Monitoring-Software ADVM v2.0 wird anhand einer Projektstudie am Beispiel des Blockgletschers im äußeren Hochebenkar (Ötztal, Tirol) demonstriert.
Im Zuge der Permafrostforschung im Hochgebirge ist auch die Erforschung der Dynamik von Blockgletschern von großem Interesse. Die Digital-Photogrammetrie kann hier einen wichtigen Beitrag liefern, da sie die automatisierte Messung von dichten, hochgenauen Fließvektorfeldern ermöglicht, die wichtige Aufschlüsse über das dynamische Verhalten von Blockgletschern geben können. Diese Ergebnisse sind auch für die Klimaforschung von Interesse, da Blockgletscher als Indikatoren längerfristiger Klimaschwankungen gelten. Der im Rahmen dieser Arbeit vorgestellte Monitoring-Ansatz bedient sich eines eigens entwickelten Konzeptes zur Vorentzerrung der verwendeten, multi-temporalen Stereo-Luftbilder mit einem groben Geländemodell (Pseudo-Orthophoto-Konzept). Die hochgenaue digitale Punktübertragung und exakte, photogrammetrische Rekonstruktion erfolgt mit Hilfe eines Multi-Photo-Constrained-Matching-Algorithmus, der für die multi-temporale Punktübertragung in der Pseudo-Orthophoto-Geometrie adaptiert wurde. Die Arbeit beinhaltet weiters ausführliche Tests dieses neu entwickelten Matching-Verfahrens mit Hilfe simulierter Bilddaten. Die Arbeitsweise der auf diesem Prinzip basierenden Monitoring-Software ADVM v2.0 wird anhand einer Projektstudie am Beispiel des Blockgletschers im äußeren Hochebenkar (Ötztal, Tirol) demonstriert.
Numerical solution strategies for the GOCE mission by using cluster technologies
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2004. Begutachter: Univ.Prof. Dr.-Ing. Reinhard Rummel (Technische Universität München), o.Univ.-Prof. Dipl.-Ing. Dr.techn. Hans Sünkel
Kurzfassung/Abstract
Das Ziel der europäischen Satellitenmission GOCE (Gravity field and steady-state Ocean Circulation Explorer) ist es, eine hochgenaue Messung des Erdschwerefeldes durchzuführen. Die Auswertung dieser Mission, deren Start für 2006 geplant ist, wird sowohl in technischer als auch in mathematischer Hinsicht eine große Herausforderung. Im Rahmen der vorliegenden Dissertation wurde ein Auswertesystem entwickelt, das eine Modellierung des Erdschwerefeldes ohne Approximationen ermöglicht. Dieses Modell wird durch rund 63,000 Parameter beschrieben, die aus einigen hundert Millionen Messungen des Satelliten berechnet werden. Um diese riesigen Datenmengen verspeichern und verarbeiten zu können, müssen während der gesamten Prozessierung parallele Hardwarearchitekturen zum Einsatz kommen. Im Rahmen eines europäischen Konsortiums (EGG-C – European Goce Gravity Consortium) wird das erstellte Softwaresystem dazu verwendet um diese Auswertung in Graz durchzuführen.
Das Ziel der europäischen Satellitenmission GOCE (Gravity field and steady-state Ocean Circulation Explorer) ist es, eine hochgenaue Messung des Erdschwerefeldes durchzuführen. Die Auswertung dieser Mission, deren Start für 2006 geplant ist, wird sowohl in technischer als auch in mathematischer Hinsicht eine große Herausforderung. Im Rahmen der vorliegenden Dissertation wurde ein Auswertesystem entwickelt, das eine Modellierung des Erdschwerefeldes ohne Approximationen ermöglicht. Dieses Modell wird durch rund 63,000 Parameter beschrieben, die aus einigen hundert Millionen Messungen des Satelliten berechnet werden. Um diese riesigen Datenmengen verspeichern und verarbeiten zu können, müssen während der gesamten Prozessierung parallele Hardwarearchitekturen zum Einsatz kommen. Im Rahmen eines europäischen Konsortiums (EGG-C – European Goce Gravity Consortium) wird das erstellte Softwaresystem dazu verwendet um diese Auswertung in Graz durchzuführen.
Amaltheas Schwerefeld und sein Einfluss auf die Bahn einer Raumsonde
Institut für Geodäsie und Geophysik, Höhere Geodäsie, Technische Universität Wien, 2004. Erstbegutachter und Betreuer: Ao. Univ. Prof. Dipl.-Ing. Dr. Robert Weber. Zweitbegutachterin: Univ. Prof. Dr. Pascale Ehrenfreund, Leiden Observatory, Niederlande.
Kurzfassung/Abstract
Die Raumsonde GALILEO der amerikanischen Weltraumorganisation NASA vollbrachte nach fast 13 Jahren erfolgreicher Erkundung des Jupitersystems am 5. November 2002 ihre letzte wissenschaftliche Mission: ein Vorbeiflug am Jupitermond Amalthea. Die Analyse von Radiosignalen der Raumsonde gestattete Aufschluss über Masse und Dichte dieses kleinen Mondes (mittlerer Radius 83,45 km). Basierend auf unterschiedlichen Modellen des inneren Aufbaus konnten in der vorliegenden Arbeit die langwelligen Anteile des Gravitationsfeldes von Amalthea berechnet werden. Die angewandte Methode basiert auf numerischer Integration des Gravitationspotentials und der Kraftwirkung infinitesimaler Massenelemente. Alle Berechnungen werden aufgrund von Amaltheas unregelmäßiger Form (genähert ein 3-achsiges Ellipsoid) in elliptischen Koordinaten durchgeführt. Zu diesem Zweck wurde das Computer Programm GRASP („Gravity Field of a Planetary Body and its Influence on a Spacecraft Trajectory“, zu deutsch „Gravitationsfeld eines planetaren Körpers und dessen Einfluss auf die Bahn einer Raumsonde“) erstellt. GRASP wendet die zweite Methode von Neumann zur Kalkulation der Massefunktionen an. Letztere wurden, basierend auf homogenen und realistischen heterogenen Modellen des Mondes, bis zum sechsten Grad und Ordnung ermittelt. Die normalisierten Massefunktionen zweiten Grades ergaben sich zu J2 = 0{,}038 und J22 = -0{,}053. Der Positions- und Geschwindigkeitsvektor von GALILEO zum Zeitpunkt der größten Annäherung (r = 254 km) an Amalthea wurde vom Jet Propulsion Laboratory, NASA, zur Verfügung gestellt. Anhand dieser Anfangsbedingungen und der Gravitationsfeldmodelle des Mondes konnten mit GRASP eine Vielzahl von Bahnen der Raumsonde während des Vorbeifluges simuliert werden. Die jeder Bahn eigene Änderung des Abstandes Erde-Sonde wurde mit vorhandenen Doppler-Daten des Vorbeifluges verglichen. Aufgrund einer fehlerhaften Trägerfrequenz standen allerdings nur einfache Doppler-Messungen („1-way Doppler data“) von der Überwachung der Raumsonde zur Verfügung, die nicht genügend Genauigkeit aufweisen, um das Gravitationsfeld von Amalthea direkt zu bestimmen – die Massefunktionen liegen innerhalb des Rauschens der Daten. Es war lediglich möglich, die Masse des Mondes zu errechnen und daraus folgend die erstaunlich geringe mittlere Dichte von \approx 860\; kg/m^3. Die in der Dissertation berechneten Modelle von Amalthea können zur Planung von zukünftigen Weltraummissionen zum Jupitersystem herangezogen werden. Um nützliche Informationen über das Gravitationsfeld des Mondes zu erlangen, sollte ein wesentlich näherer Vorbeiflug als bei GALILEO angepeilt werden. Dieser sollte vorzugsweise in einer Höhe von 80 km über der Oberfläche und über einem Pol entlang der größten Achse von Amalthea erfolgen. Eine geringere Höhere würde noch bessere Resultate liefern, wäre aber aufgrund der begrenzten Genauigkeit der Navigation der Raumsonde riskant.
Die Raumsonde GALILEO der amerikanischen Weltraumorganisation NASA vollbrachte nach fast 13 Jahren erfolgreicher Erkundung des Jupitersystems am 5. November 2002 ihre letzte wissenschaftliche Mission: ein Vorbeiflug am Jupitermond Amalthea. Die Analyse von Radiosignalen der Raumsonde gestattete Aufschluss über Masse und Dichte dieses kleinen Mondes (mittlerer Radius 83,45 km). Basierend auf unterschiedlichen Modellen des inneren Aufbaus konnten in der vorliegenden Arbeit die langwelligen Anteile des Gravitationsfeldes von Amalthea berechnet werden. Die angewandte Methode basiert auf numerischer Integration des Gravitationspotentials und der Kraftwirkung infinitesimaler Massenelemente. Alle Berechnungen werden aufgrund von Amaltheas unregelmäßiger Form (genähert ein 3-achsiges Ellipsoid) in elliptischen Koordinaten durchgeführt. Zu diesem Zweck wurde das Computer Programm GRASP („Gravity Field of a Planetary Body and its Influence on a Spacecraft Trajectory“, zu deutsch „Gravitationsfeld eines planetaren Körpers und dessen Einfluss auf die Bahn einer Raumsonde“) erstellt. GRASP wendet die zweite Methode von Neumann zur Kalkulation der Massefunktionen an. Letztere wurden, basierend auf homogenen und realistischen heterogenen Modellen des Mondes, bis zum sechsten Grad und Ordnung ermittelt. Die normalisierten Massefunktionen zweiten Grades ergaben sich zu J2 = 0{,}038 und J22 = -0{,}053. Der Positions- und Geschwindigkeitsvektor von GALILEO zum Zeitpunkt der größten Annäherung (r = 254 km) an Amalthea wurde vom Jet Propulsion Laboratory, NASA, zur Verfügung gestellt. Anhand dieser Anfangsbedingungen und der Gravitationsfeldmodelle des Mondes konnten mit GRASP eine Vielzahl von Bahnen der Raumsonde während des Vorbeifluges simuliert werden. Die jeder Bahn eigene Änderung des Abstandes Erde-Sonde wurde mit vorhandenen Doppler-Daten des Vorbeifluges verglichen. Aufgrund einer fehlerhaften Trägerfrequenz standen allerdings nur einfache Doppler-Messungen („1-way Doppler data“) von der Überwachung der Raumsonde zur Verfügung, die nicht genügend Genauigkeit aufweisen, um das Gravitationsfeld von Amalthea direkt zu bestimmen – die Massefunktionen liegen innerhalb des Rauschens der Daten. Es war lediglich möglich, die Masse des Mondes zu errechnen und daraus folgend die erstaunlich geringe mittlere Dichte von \approx 860\; kg/m^3. Die in der Dissertation berechneten Modelle von Amalthea können zur Planung von zukünftigen Weltraummissionen zum Jupitersystem herangezogen werden. Um nützliche Informationen über das Gravitationsfeld des Mondes zu erlangen, sollte ein wesentlich näherer Vorbeiflug als bei GALILEO angepeilt werden. Dieser sollte vorzugsweise in einer Höhe von 80 km über der Oberfläche und über einem Pol entlang der größten Achse von Amalthea erfolgen. Eine geringere Höhere würde noch bessere Resultate liefern, wäre aber aufgrund der begrenzten Genauigkeit der Navigation der Raumsonde riskant.
Räumliche und statistische Analyse von thermalen Satellitendaten zur Erfassung von Kohlefeueranomalien
Fakultät für technische Naturwissenschaften und Informatik, Technische Universität Wien 2003. 1. Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Institut für Photogrammetrie und Fernerkundung, 2. Begutachter: Dr. Paul van Dijk, ITC, Int. Institute for Geo-Information Science and Earthobservation, Enschede, Niederlande.
Kurzfassung/Abstract
Kohlefeuer (natürlich und anthropogen) führen nicht nur zum Verlust von Rohstoffen, sondern verursachen auch bedeutende Umweltprobleme. In China erstrecken sich die Kohlefeuer über den gesamten Nordteil des Landes. Daher ist es extrem schwierig einen Überblick über die Verteilung von bereits bekannten und die Entstehung von neuen Kohlefeuern zu gewinnen. Diese Untersuchung beschäftigt sich mit der Entwicklung eines praktischen Verfahrens zur Ermittlung von durch Kohlefeuer verursachten, thermalen Anomalien auf der Landoberfläche mit Hilfe von Fernerkundungsdaten im regionalen Maßstab. Die Arbeit beginnt mit einem Überblick über die Theorie und Fallstudien zur Ermittlung von Kohlefeuern mit Hilfe fernerkundlicher Mittel. Die Oberflächenmerkmale und Nebenprodukte von Kohlefeuer beinhalten pyrometamorphe Gesteine, fumarolische Minerale, Einsturztrichter und -gräben, Landabsenkungen, Kluftbildungen, und oberflächennahe thermale Anomalien. Diese Ausprägungen können sowohl mit Hilfe von Fernerkundungsdaten aus dem sichtbaren Bereich, nahen Infrarot, kurzwelligen Infrarot und thermalen Infrarot als auch mit dem Radar entdeckt werden. Die Fähigkeit zur Entdeckung dieser Ausprägungen wird von der spektralen, räumlichen und zeitlichen Auflösung der Fernerkundungsdaten begrenzt. Die Eigenschaften der Kohlefeuer und der dadurch bedingten thermalen Anomalien wurden mit Hilfe simulierter Kohlefeuer im Zuge von Feldarbeiten und bei der Analyse der Anomalien der Fernerkundungsdaten untersucht. Zwei Kohlefeuersimulationen wurden auf dem Gelände der DLR in Oberpfaffenhofen (Deutschland) im Rahmen eines Experimentes durchgeführt. Die Temperatur im inneren eines Kohlefeuers beträgt mehr als 1000ˆC. Die Wärmeabstrahlung eines Kohlefeuers rangiert von 300ˆC bis 900ˆC. Der Hintergrund im Gelände (z.B. Boden, Vegetation) hat im Verhältnis zum Kohlefeuer tagsüber einen höheren und nachts einen niedrigeren Wärmegradienten. Daher ist Kontrast zwischen Kohlefeuer und Hintergrund in der Nacht deutlicher ausgeprägt. Feldstudien haben ergeben, dass die Oberflächentemperatur innerhalb einer kleinen Sanddüne um 28ˆC abweichen kann. Die Temperaturunterschiede im Südosten und Norden einer Kohleabraumhalde zwischen 10.00 und 14.00 Uhr betragen bis zu 20ˆC. Die Temperaturunterschiede, die durch die unterschiedlich starke solare Erwärmung verursacht werden, können durch Kohlefeuer bedingte, thermale Anomalien überprägen. Kohlefeuer im Untergrund können thermale Anomalien an der Erdoberfläche erzeugen. Nachtdaten sind für die Beobachtung der Kohlefeuer am besten geeignet. Der optimale Punkt für die Erfassung der Daten ist die Zeit unmittelbar vor dem Sonnenaufgang. Ein Temperaturprofil einer Kluft über einem Kohlefeuer zeigte, dass eine thermale Anomalie in einem Abstand von einen Meter zur Kluft bereits eine Stunde nach Sonnenaufgang von der Sonneneinstrahlung überdeckt worden war. Thermale Anomalien erstrecken sich höchsten drei Meter von einer Gesteinskluft. Die Breite der thermalen Anomalie bleibt bei steigender Hintergrundtemperatur gleich. Das Muster der thermalen Kohlefeueranomalien in Fernerkundungs- und Geländedaten wird durch die Geometrie der Spalten bestimmt. Eine statistische Analyse der thermalen Anomalien in verschieden Landsat-7 ETM+ Tag- und Nachtszenen zeigte, dass Minimum-, Median- und Mittelwerte einer Kohlefeueranomalie in ETM+ Bildern höher als die ihres Hintergrundes sind, aber mit einer Vergrößerung des Hintergrundes die Differenzen dieser Werte zwischen Anomalie und Hintergrund geringer werden. Die Standardabweichung innerhalb einer thermalen Anomalie in ETM+ Nachtszenen ist höher als die des korrespondierenden Hintergrundes. Tagszenen zeigen eine umgekehrte Verhaltenweise. Das Minimum einer thermalen Anomalie ist deutlich niedriger als das Maximum des Hintergrundes. Deshalb stechen thermale Anomalien nicht deutlich hervor und sind daher schwer einzugrenzen. Jedes Kohlefeuer zeichnet sich durch eigene Start und End DN-Werte aus und sollte bei der Bestimmung einzeln erfasst werden. ETM+ Nachtszenen sind für die großräumige Aufnahme von Kohlefeuern gut geeignet. Die Erfolgsquote bei der Erfassung von Kohlefeuern beträgt ca. 80%. In diese Studie wurde ein praktisches Verfahren für die Ermittlung von Kohlefeueranomalien im regionalen Maßstab mit Hilfe von Landsat-7, Band 6 Daten entwickelt. Die meisten durch Kohlefeuer an der Erdoberfläche erzeugten thermalen Anomalien sind kleiner als die Pixelgröße einer Landsat-7, Band 6 Szene. Sie bilden hauptsächlich schwache und lokal beschränkte thermale Anomalien. Die Anomalien können mit Hilfe eines Subsets des Bildes ermittelt werden. Dazu wird ein kleines Fenster Schritt für Schritt über das Gesamtbild bewegt. Die Analyse der Daten innerhalb dieses Fensters erlaubt es, die Anomalie vom Hintergrund mit Hilfe eines Schwellwertes zu trennen. Dieser Schwellwert wird durch den ersten Wendepunkt des Histogrammes plus die Standardabweichung innerhalb des Fensters definiert. Ein sauber definierter Schwellwert minimiert die Anzahl der fälschlich zugeordneten Pixel. Eine Ergebniskarte zeigt auf, wie oft ein einzelner Pixel als Feuer klassifiziert wurde. Ein weiterer Schwellenwert erlaubt es, die Ergebniskarte in eine Bitmap mit Kohlefeueranomalien und Hintergrundgebiete aufzuteilen. Darüber hinaus können Fehlklassifizierungen, wie Wasserkörper und durch Sonneneinstrahlung erwärmte Hänge, mit Hilfe der bekannten statistischen Merkmale der Kohlefeuer ausgegrenzt werden. Die Hintergrundtemperatur, die Qualität der thermalen Fernerkundungsdaten und die Größe und Intensität der Kohlefeuer sind die Hauptfaktoren für die Bestimmung der Kohlefeuer. Die Performanz des Algorithmus zur Extraktion der thermalen Kohlefeueranomalien ist nicht von den oben genannten Faktoren abhängig, sondern von wird von der Größe des Fensters und dem finalen Schwellwert bedingt. Cluster thermaler Anomalien mit verschiedenem Ausmaß (z.B. 0-64 Pixel in Wuda) können gut mit Fenstern unterschiedlicher Größe extrahiert werden. Manchmal ist es möglich bis zu 100% der Pixel eines Cluster einzugrenzen. Die beste Fenstergröße zur Entdeckung von Kohlefeuern in einer großen Region im Nordwesten Chinas reichte von 11\times11 zu 35\times35 Pixel (Landsat-7 Band 6 Daten). Für Testzwecke wurde der Algorithmus auf Satellitendaten angewandt, die die Autonome Region Xinjiang Uygur abdecken und ca. 2000 km entfernt von den Hauptuntersuchungsgebieten liegen. Die thermalen Kohlefeueranomalien die durch den Algorithmus bestimmt wurden, stimmen gut mit den bekannten Kohlefeuern überein. Thermale Anomalien, die mit Hilfe des Algorithmus aus Landsat-7 Band 6 Daten ermittelt wurden können zusammen mit Informationen aus den multispektralen nicht-thermalen Kanälen dazu genutzt werden, um Gebiete mit einem hohen Gefährdungspotential für Kohlefeuer zu definieren. „Ground-thruth“ Studien in Gegenden, die eine hohe Wahrscheinlichkeit für Kohlefeuer aufwiesen und nie zuvor untersucht wurden, zeigten, dass es in diesen Gebieten aktive Kohlefeuer gab, die mit den zuvor ermittelten Anomalien perfekt übereinstimmten. Diese Untersuchungen beweisen, dass das hier vorgestellte Verfahren das Potential besitzt, Kohlefeuer in zuvor nicht analysierten Gebieten zu ermitteln. Dadurch wird es möglich, die Bestimmung und Überwachung von Kohlefeuern in großen Gebieten (wie z.B. Nordchina) auf operationeller Basis durchzuführen.
Kohlefeuer (natürlich und anthropogen) führen nicht nur zum Verlust von Rohstoffen, sondern verursachen auch bedeutende Umweltprobleme. In China erstrecken sich die Kohlefeuer über den gesamten Nordteil des Landes. Daher ist es extrem schwierig einen Überblick über die Verteilung von bereits bekannten und die Entstehung von neuen Kohlefeuern zu gewinnen. Diese Untersuchung beschäftigt sich mit der Entwicklung eines praktischen Verfahrens zur Ermittlung von durch Kohlefeuer verursachten, thermalen Anomalien auf der Landoberfläche mit Hilfe von Fernerkundungsdaten im regionalen Maßstab. Die Arbeit beginnt mit einem Überblick über die Theorie und Fallstudien zur Ermittlung von Kohlefeuern mit Hilfe fernerkundlicher Mittel. Die Oberflächenmerkmale und Nebenprodukte von Kohlefeuer beinhalten pyrometamorphe Gesteine, fumarolische Minerale, Einsturztrichter und -gräben, Landabsenkungen, Kluftbildungen, und oberflächennahe thermale Anomalien. Diese Ausprägungen können sowohl mit Hilfe von Fernerkundungsdaten aus dem sichtbaren Bereich, nahen Infrarot, kurzwelligen Infrarot und thermalen Infrarot als auch mit dem Radar entdeckt werden. Die Fähigkeit zur Entdeckung dieser Ausprägungen wird von der spektralen, räumlichen und zeitlichen Auflösung der Fernerkundungsdaten begrenzt. Die Eigenschaften der Kohlefeuer und der dadurch bedingten thermalen Anomalien wurden mit Hilfe simulierter Kohlefeuer im Zuge von Feldarbeiten und bei der Analyse der Anomalien der Fernerkundungsdaten untersucht. Zwei Kohlefeuersimulationen wurden auf dem Gelände der DLR in Oberpfaffenhofen (Deutschland) im Rahmen eines Experimentes durchgeführt. Die Temperatur im inneren eines Kohlefeuers beträgt mehr als 1000ˆC. Die Wärmeabstrahlung eines Kohlefeuers rangiert von 300ˆC bis 900ˆC. Der Hintergrund im Gelände (z.B. Boden, Vegetation) hat im Verhältnis zum Kohlefeuer tagsüber einen höheren und nachts einen niedrigeren Wärmegradienten. Daher ist Kontrast zwischen Kohlefeuer und Hintergrund in der Nacht deutlicher ausgeprägt. Feldstudien haben ergeben, dass die Oberflächentemperatur innerhalb einer kleinen Sanddüne um 28ˆC abweichen kann. Die Temperaturunterschiede im Südosten und Norden einer Kohleabraumhalde zwischen 10.00 und 14.00 Uhr betragen bis zu 20ˆC. Die Temperaturunterschiede, die durch die unterschiedlich starke solare Erwärmung verursacht werden, können durch Kohlefeuer bedingte, thermale Anomalien überprägen. Kohlefeuer im Untergrund können thermale Anomalien an der Erdoberfläche erzeugen. Nachtdaten sind für die Beobachtung der Kohlefeuer am besten geeignet. Der optimale Punkt für die Erfassung der Daten ist die Zeit unmittelbar vor dem Sonnenaufgang. Ein Temperaturprofil einer Kluft über einem Kohlefeuer zeigte, dass eine thermale Anomalie in einem Abstand von einen Meter zur Kluft bereits eine Stunde nach Sonnenaufgang von der Sonneneinstrahlung überdeckt worden war. Thermale Anomalien erstrecken sich höchsten drei Meter von einer Gesteinskluft. Die Breite der thermalen Anomalie bleibt bei steigender Hintergrundtemperatur gleich. Das Muster der thermalen Kohlefeueranomalien in Fernerkundungs- und Geländedaten wird durch die Geometrie der Spalten bestimmt. Eine statistische Analyse der thermalen Anomalien in verschieden Landsat-7 ETM+ Tag- und Nachtszenen zeigte, dass Minimum-, Median- und Mittelwerte einer Kohlefeueranomalie in ETM+ Bildern höher als die ihres Hintergrundes sind, aber mit einer Vergrößerung des Hintergrundes die Differenzen dieser Werte zwischen Anomalie und Hintergrund geringer werden. Die Standardabweichung innerhalb einer thermalen Anomalie in ETM+ Nachtszenen ist höher als die des korrespondierenden Hintergrundes. Tagszenen zeigen eine umgekehrte Verhaltenweise. Das Minimum einer thermalen Anomalie ist deutlich niedriger als das Maximum des Hintergrundes. Deshalb stechen thermale Anomalien nicht deutlich hervor und sind daher schwer einzugrenzen. Jedes Kohlefeuer zeichnet sich durch eigene Start und End DN-Werte aus und sollte bei der Bestimmung einzeln erfasst werden. ETM+ Nachtszenen sind für die großräumige Aufnahme von Kohlefeuern gut geeignet. Die Erfolgsquote bei der Erfassung von Kohlefeuern beträgt ca. 80%. In diese Studie wurde ein praktisches Verfahren für die Ermittlung von Kohlefeueranomalien im regionalen Maßstab mit Hilfe von Landsat-7, Band 6 Daten entwickelt. Die meisten durch Kohlefeuer an der Erdoberfläche erzeugten thermalen Anomalien sind kleiner als die Pixelgröße einer Landsat-7, Band 6 Szene. Sie bilden hauptsächlich schwache und lokal beschränkte thermale Anomalien. Die Anomalien können mit Hilfe eines Subsets des Bildes ermittelt werden. Dazu wird ein kleines Fenster Schritt für Schritt über das Gesamtbild bewegt. Die Analyse der Daten innerhalb dieses Fensters erlaubt es, die Anomalie vom Hintergrund mit Hilfe eines Schwellwertes zu trennen. Dieser Schwellwert wird durch den ersten Wendepunkt des Histogrammes plus die Standardabweichung innerhalb des Fensters definiert. Ein sauber definierter Schwellwert minimiert die Anzahl der fälschlich zugeordneten Pixel. Eine Ergebniskarte zeigt auf, wie oft ein einzelner Pixel als Feuer klassifiziert wurde. Ein weiterer Schwellenwert erlaubt es, die Ergebniskarte in eine Bitmap mit Kohlefeueranomalien und Hintergrundgebiete aufzuteilen. Darüber hinaus können Fehlklassifizierungen, wie Wasserkörper und durch Sonneneinstrahlung erwärmte Hänge, mit Hilfe der bekannten statistischen Merkmale der Kohlefeuer ausgegrenzt werden. Die Hintergrundtemperatur, die Qualität der thermalen Fernerkundungsdaten und die Größe und Intensität der Kohlefeuer sind die Hauptfaktoren für die Bestimmung der Kohlefeuer. Die Performanz des Algorithmus zur Extraktion der thermalen Kohlefeueranomalien ist nicht von den oben genannten Faktoren abhängig, sondern von wird von der Größe des Fensters und dem finalen Schwellwert bedingt. Cluster thermaler Anomalien mit verschiedenem Ausmaß (z.B. 0-64 Pixel in Wuda) können gut mit Fenstern unterschiedlicher Größe extrahiert werden. Manchmal ist es möglich bis zu 100% der Pixel eines Cluster einzugrenzen. Die beste Fenstergröße zur Entdeckung von Kohlefeuern in einer großen Region im Nordwesten Chinas reichte von 11\times11 zu 35\times35 Pixel (Landsat-7 Band 6 Daten). Für Testzwecke wurde der Algorithmus auf Satellitendaten angewandt, die die Autonome Region Xinjiang Uygur abdecken und ca. 2000 km entfernt von den Hauptuntersuchungsgebieten liegen. Die thermalen Kohlefeueranomalien die durch den Algorithmus bestimmt wurden, stimmen gut mit den bekannten Kohlefeuern überein. Thermale Anomalien, die mit Hilfe des Algorithmus aus Landsat-7 Band 6 Daten ermittelt wurden können zusammen mit Informationen aus den multispektralen nicht-thermalen Kanälen dazu genutzt werden, um Gebiete mit einem hohen Gefährdungspotential für Kohlefeuer zu definieren. „Ground-thruth“ Studien in Gegenden, die eine hohe Wahrscheinlichkeit für Kohlefeuer aufwiesen und nie zuvor untersucht wurden, zeigten, dass es in diesen Gebieten aktive Kohlefeuer gab, die mit den zuvor ermittelten Anomalien perfekt übereinstimmten. Diese Untersuchungen beweisen, dass das hier vorgestellte Verfahren das Potential besitzt, Kohlefeuer in zuvor nicht analysierten Gebieten zu ermitteln. Dadurch wird es möglich, die Bestimmung und Überwachung von Kohlefeuern in großen Gebieten (wie z.B. Nordchina) auf operationeller Basis durchzuführen.
Local spatial Variation in (very) low birth weight and other risk factors influencing infant mortality. A study from Baton Rouge, Louisiana
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am Department of Geography and Anthropology, Louisiana State University, Baton Rouge, Louisiana, USA. Begutachter/Betreuer: Ass.Prof. Dr. Michael Leitner (Louisiana State University), Mag. phil. Dr. phil. Oswald Jochum (FH Technikum Kärnten)
Kurzfassung/Abstract
Abstract: The infant mortality rate for East Baton Rouge Parish is higher than for the United States as a whole (Leitner and Curtis 2002). This establishes Baton Rouge as excellent and significant location to investigate various risk factors that are responsible for this high infant mortality rate. The data utilized in this research are birth certificates that cover a twelve-year time period from 1990 to 2001. First of all, the problem of infant mortality and its influencing risk factors is addressed. The most significant risk factor, (very) low birth weight, is discussed in detail. Within the area of East Baton Rouge, the spatial distribution of (very) low birth weight infants is mapped and analyzed. Furthermore, the local spatial autocorrelation of low birth weight infants is calculated and displayed. Local differences have to be taken into account in order to produce a truthful depiction of reality. Consequently, this research introduces the use of local spatial logistic regression models applied to infant mortality risk factors. In particular, logistic Geographically Weighted Regression is employed in this research. The spatial variations of selected risk factors that influence infant mortality are investigated and discussed. Univariate, as well as, multivariate local logistic regression models are estimated. The risk factor (very) low birth weight is employed as a surrogate for the infant mortality rate in this research and used as dependent variable in the local spatial regression models. The risk factors mother’s age, race, educational level and the number of prenatal care visits are selected for the independent variables in the regression. The results of the research show that spatial variations of the influencing risk factors exist across the study area, as well as over the twelve-year time period. Summary: The primary goal of this research was to identify and describe the local spatial variations in infant mortality and its influencing risk factors. The study area for this research was the city of Baton Rouge, Louisiana. The data for this study were birth certificates for a time period from 1990 to 2001. The most important risk factor for infant mortality, (very) low birth weight was employed as a surrogate for the infant mortality rate in this research. Before the local spatial variation of (very) low birth weight and other risk factors was addressed, the existing literature on infant mortality and its influencing risk factors was reviewed in Section 2. Chapter 3 discussed the distribution of (very) low birth weight infants. Additionally, clusters of low birth weight infants were explored. Besides, the method of local logistic regression was introduced. GWR 3.0, which is a state of the art software product, was employed in this research to estimate local logistic regression models. In the logistic GWR models, (very) low birth weight was used as the dependent variable. Prenatal care was chosen as independent variable for the univariate local logistic regression models. Furthermore, the mother’s age, her educational level and race, as well as the number of prenatal care visits were utilized as independent variables for the multivariate logistic GWR. GWR can be compared to a magnifying glass, because unimagined details in the relationships between variables come into focus. If a global regression model were applied to the same data, these details would have remained hidden (Matthews 2002). Fotheringham calls the method „a spatial microscope” (Fotheringham et al. 2003). GWR has proven to be a useful method for investigating spatial non-stationarity, especially for this research. The results showed a spatial variation in the relationships of the risk factors not only within the study area but also across the considered twelve-year time period.
Abstract: The infant mortality rate for East Baton Rouge Parish is higher than for the United States as a whole (Leitner and Curtis 2002). This establishes Baton Rouge as excellent and significant location to investigate various risk factors that are responsible for this high infant mortality rate. The data utilized in this research are birth certificates that cover a twelve-year time period from 1990 to 2001. First of all, the problem of infant mortality and its influencing risk factors is addressed. The most significant risk factor, (very) low birth weight, is discussed in detail. Within the area of East Baton Rouge, the spatial distribution of (very) low birth weight infants is mapped and analyzed. Furthermore, the local spatial autocorrelation of low birth weight infants is calculated and displayed. Local differences have to be taken into account in order to produce a truthful depiction of reality. Consequently, this research introduces the use of local spatial logistic regression models applied to infant mortality risk factors. In particular, logistic Geographically Weighted Regression is employed in this research. The spatial variations of selected risk factors that influence infant mortality are investigated and discussed. Univariate, as well as, multivariate local logistic regression models are estimated. The risk factor (very) low birth weight is employed as a surrogate for the infant mortality rate in this research and used as dependent variable in the local spatial regression models. The risk factors mother’s age, race, educational level and the number of prenatal care visits are selected for the independent variables in the regression. The results of the research show that spatial variations of the influencing risk factors exist across the study area, as well as over the twelve-year time period. Summary: The primary goal of this research was to identify and describe the local spatial variations in infant mortality and its influencing risk factors. The study area for this research was the city of Baton Rouge, Louisiana. The data for this study were birth certificates for a time period from 1990 to 2001. The most important risk factor for infant mortality, (very) low birth weight was employed as a surrogate for the infant mortality rate in this research. Before the local spatial variation of (very) low birth weight and other risk factors was addressed, the existing literature on infant mortality and its influencing risk factors was reviewed in Section 2. Chapter 3 discussed the distribution of (very) low birth weight infants. Additionally, clusters of low birth weight infants were explored. Besides, the method of local logistic regression was introduced. GWR 3.0, which is a state of the art software product, was employed in this research to estimate local logistic regression models. In the logistic GWR models, (very) low birth weight was used as the dependent variable. Prenatal care was chosen as independent variable for the univariate local logistic regression models. Furthermore, the mother’s age, her educational level and race, as well as the number of prenatal care visits were utilized as independent variables for the multivariate logistic GWR. GWR can be compared to a magnifying glass, because unimagined details in the relationships between variables come into focus. If a global regression model were applied to the same data, these details would have remained hidden (Matthews 2002). Fotheringham calls the method „a spatial microscope” (Fotheringham et al. 2003). GWR has proven to be a useful method for investigating spatial non-stationarity, especially for this research. The results showed a spatial variation in the relationships of the risk factors not only within the study area but also across the considered twelve-year time period.
Vergleich digitaler Geländemodelle aus Laserscanning und Photogrammetrie
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien 2003. Begutachter: O.Univ.Prof. Dr.-Ing. Karl Kraus, Betreuer: Dipl.-Ing. Christian Briese.
Kurzfassung/Abstract
Digitale Geländemodelle wurden lange Zeit ausschließlich aus manuellen photogrammetrischen Auswertungen oder terrestrischen Messungen erzeugt. Im letzten Jahrzehnt änderte sich die Situation durch das Aufkommen des Laserscannings und durch digitale Methoden in der Photogrammetrie, die einen hohen Automatisierungsgrad aufweisen. In dieser Diplomarbeit werden Geländemodelle, die zum einen aus Laserscanner-Daten und zum anderen aus manueller und automatischer photogrammetrischer Auswertung abgeleitet wurden, verglichen. Im Rahmen eines einführenden Kapitels werden die verschiedenen Methoden der Datenerfassung und die Erstellung eines digitalen Geländemodells mittels Linearer Prädiktion erklärt. Für den Vergleich der digitalen Geländemodelle wurden am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien entwickelte Programme verwendet, die es erlauben, die charakteristischen Kenngrößen der durch die verschiedenen Methoden erfassten Daten und der daraus berechneten Geländemodelle zu ermitteln. Zum Vergleich der Qualität der Daten wurden die Datendichte, der kürzeste Abstand der gemessenen Punkte zu Punkten eines regelmäßigen Rasters und das Vorhandensein verschiedener Punktklassen (zum Beispiel Massenpunkte oder Bruchkanten) untersucht. Die innere Genauigkeit der Geländemodelle wurde durch Vergleich der originalen Punktwolken mit den daraus abgeleiteten Geländemodellen betrachtet. Außerdem wird eine Formel zur Abschätzung der Höhengenauigkeit von Interpolationspunkten eingeführt und mit der aus der linearen Prädiktion stammenden Formel für die Höhengenauigkeit der Interpolationspunkte verglichen. Die äußere Genauigkeit der Geländemodelle wurde durch die Bildung von Differenzmodellen zwischen den einzelnen Geländemodellen und dem Vergleich mit Referenzpunktwolken ermittelt. Die Methoden wurden anhand von Datensätzen aus dem Pulkautal erprobt und anhand von Beispielen diskutiert. Zusammenfassend ist zu sagen, dass die am I.P.F. entwickelten Programme sehr gut zur Dokumentation der Qualitätsparameter und für das Auffinden von durch die Daten schlecht beschriebenen Teilgebieten von Geländemodellen geeignet sind. Eine allgemein gültige Aussage über die Qualität von Geländemodellen aus Laserscanner-Daten, Daten aus manueller und automatischer photogrammetrischer Auswertung kann nicht getroffen werden. Es ist von der jeweiligen Anwendung abhängig, auf welche Qualitätsmerkmale mehr und auf welche weniger wert gelegt wird.
Digitale Geländemodelle wurden lange Zeit ausschließlich aus manuellen photogrammetrischen Auswertungen oder terrestrischen Messungen erzeugt. Im letzten Jahrzehnt änderte sich die Situation durch das Aufkommen des Laserscannings und durch digitale Methoden in der Photogrammetrie, die einen hohen Automatisierungsgrad aufweisen. In dieser Diplomarbeit werden Geländemodelle, die zum einen aus Laserscanner-Daten und zum anderen aus manueller und automatischer photogrammetrischer Auswertung abgeleitet wurden, verglichen. Im Rahmen eines einführenden Kapitels werden die verschiedenen Methoden der Datenerfassung und die Erstellung eines digitalen Geländemodells mittels Linearer Prädiktion erklärt. Für den Vergleich der digitalen Geländemodelle wurden am Institut für Photogrammetrie und Fernerkundung der Technischen Universität Wien entwickelte Programme verwendet, die es erlauben, die charakteristischen Kenngrößen der durch die verschiedenen Methoden erfassten Daten und der daraus berechneten Geländemodelle zu ermitteln. Zum Vergleich der Qualität der Daten wurden die Datendichte, der kürzeste Abstand der gemessenen Punkte zu Punkten eines regelmäßigen Rasters und das Vorhandensein verschiedener Punktklassen (zum Beispiel Massenpunkte oder Bruchkanten) untersucht. Die innere Genauigkeit der Geländemodelle wurde durch Vergleich der originalen Punktwolken mit den daraus abgeleiteten Geländemodellen betrachtet. Außerdem wird eine Formel zur Abschätzung der Höhengenauigkeit von Interpolationspunkten eingeführt und mit der aus der linearen Prädiktion stammenden Formel für die Höhengenauigkeit der Interpolationspunkte verglichen. Die äußere Genauigkeit der Geländemodelle wurde durch die Bildung von Differenzmodellen zwischen den einzelnen Geländemodellen und dem Vergleich mit Referenzpunktwolken ermittelt. Die Methoden wurden anhand von Datensätzen aus dem Pulkautal erprobt und anhand von Beispielen diskutiert. Zusammenfassend ist zu sagen, dass die am I.P.F. entwickelten Programme sehr gut zur Dokumentation der Qualitätsparameter und für das Auffinden von durch die Daten schlecht beschriebenen Teilgebieten von Geländemodellen geeignet sind. Eine allgemein gültige Aussage über die Qualität von Geländemodellen aus Laserscanner-Daten, Daten aus manueller und automatischer photogrammetrischer Auswertung kann nicht getroffen werden. Es ist von der jeweiligen Anwendung abhängig, auf welche Qualitätsmerkmale mehr und auf welche weniger wert gelegt wird.
Monitoring Seasonal StandingWater over Central Siberia Using Ku-Band Scatterometer Data
Institute of Photogrammetry and Remote Sensing, Vienna University of Technology 2004. Referees: Prof. Dr. Wolfgang Wagner, Institute of Photogrammetry and Remote Sensing, Vienna University of Technology and Prof. Björn Graneli, Kiruna Space and Environment Campus, Schweden, Instructors: M.Sc. Richard A. Kidd and Dr. Klaus Scipal, Institute of Photogrammetry and Remote Sensing, Vienna University of Technology.
Kurzfassung/Abstract
The thesis tries to answer the following question: „Can Ku-band scatterometry data be used to identify location, duration and extent of seasonal standing water in Central Siberia?“. The temporal/spatial distribution of seasonal standing water is determined by the freezethaw cycles, wetland distribution, soil moisture conditions and annual flooding patterns and is in turn essential for estimating carbon fluxes (methane, carbon dioxide) and for climate change studies. Central Siberia was chosen as study region since it is one of the largest, most important and least monitored biomes in the world, with large implications for global climate change. In addition, the Institute of Photogrammetry and Remote Sensing at the Vienna Technical University (I.P.F.) participates in the on-going SIBERIA-II project from which extensive reference data can be drawn. A future integration of the results into SIBERIA-II appears realistic. The choice of Ku-band is justified by the readily available data from the SeaWinds instrument onboard NASA's QuikScat satellite. The spatial resolution of the data is coarse (about 30 km) but the temporal sampling rate is excellent (enough measurements per day even for studies of diurnal effects). This data was originally intended for sea backscatter applications (wind measurements) but has shown to be useful even for land applications. Most importantly, work by Son Nghiem from NASA JPL has suggested the capability of the SeaWinds for mapping flooded areas. It has been concluded that the potential of polarimetric studies of standing water depends significantly on the extent of water areas inside the satellite footprint, both topsoil moisture and water surfaces having important contributions to the co-polarization ratio. The study of the extent of standing water is complicated by the polarimetric effects observed during snowmelt.
The thesis tries to answer the following question: „Can Ku-band scatterometry data be used to identify location, duration and extent of seasonal standing water in Central Siberia?“. The temporal/spatial distribution of seasonal standing water is determined by the freezethaw cycles, wetland distribution, soil moisture conditions and annual flooding patterns and is in turn essential for estimating carbon fluxes (methane, carbon dioxide) and for climate change studies. Central Siberia was chosen as study region since it is one of the largest, most important and least monitored biomes in the world, with large implications for global climate change. In addition, the Institute of Photogrammetry and Remote Sensing at the Vienna Technical University (I.P.F.) participates in the on-going SIBERIA-II project from which extensive reference data can be drawn. A future integration of the results into SIBERIA-II appears realistic. The choice of Ku-band is justified by the readily available data from the SeaWinds instrument onboard NASA's QuikScat satellite. The spatial resolution of the data is coarse (about 30 km) but the temporal sampling rate is excellent (enough measurements per day even for studies of diurnal effects). This data was originally intended for sea backscatter applications (wind measurements) but has shown to be useful even for land applications. Most importantly, work by Son Nghiem from NASA JPL has suggested the capability of the SeaWinds for mapping flooded areas. It has been concluded that the potential of polarimetric studies of standing water depends significantly on the extent of water areas inside the satellite footprint, both topsoil moisture and water surfaces having important contributions to the co-polarization ratio. The study of the extent of standing water is complicated by the polarimetric effects observed during snowmelt.
Entwicklung eines interaktiven Viewers zur webbasierten 3D-Datenvisualisierung
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am Amt der oberösterreichischen Landesregierung. Begutachter/Betreuer: Mag. Dr. rer.nat. Gernot Paulus (FH Technikum Kärnten), Mag. MAS(GIS) Thomas Ebert (Amt der oberösterreichischen Landesregierung)
Kurzfassung/Abstract
Die Standardlösung für 3D Visualisierungen im Internet ist VRML (Virtual Reality Modelling Language). In dieser Diplomarbeit wird eine alternative Methode, die bisher nur für 2D Web Mapping verwendet wird, für die 3D Visualisierung von Geodaten im Internet angewendet. Anders als bei VRML erfolgt bei der neu entwickelten Methode die gesamte 3D Datenverarbeitung serverseitig. Ein Rasterbild mit der aktuellen 3D Ansicht wird an den Client (Webbrowser) gesendet und dort visualisiert. Damit möglichst viele Internetanwender den 3D Viewer verwenden können, werden nur HTML Elemente verwendet, die in allen Browsern dargestellt werden können. In der virtuellen 3D Welt kann der Anwender beschränkt navigieren. Da die Maus sich zur Navigation in 3D nicht eignet, erfolgt die Interaktion über Buttons mit entsprechenden Symbolen. Damit der User schnell das gesucht Ziel im virtuellen Raum findet, verwendet der 3D Viewer eine gezielte Positionierung. Der Anwender kann entweder über eine Karte oder eine Suchfunktion den Ort der 3D Betrachtung festlegen. In den 3D Ansichten ist das Digitale Höhenmodell (DHM) mit überlagerten Verkehrsrouten, Gewässern und Hauptorten zu sehen. Zur Orientierung in der virtuellen Welt wird eine Übersichtskarte mit der aktuellen Position und Richtungsanzeige verwendet. Eine weitere Hilfe bei der Orientierung ist die Beschriftung von den höchsten Bergen und größten Orten. Diese Arbeit beschreibt die Realisierung eines 3D Viewers Prototyps und evaluiert, ob diese Methode einer breiten Benutzerschicht im Echtbetrieb zur Verfügung gestellt werden kann. Aufgebaut und ausgeführt wurde dieses Projekt in Zusammenarbeit mit der DORIS (Digitales Oberösterreichisches Raum Informations System) Systemgruppe der Landesregierung Oberösterreich.
Die Standardlösung für 3D Visualisierungen im Internet ist VRML (Virtual Reality Modelling Language). In dieser Diplomarbeit wird eine alternative Methode, die bisher nur für 2D Web Mapping verwendet wird, für die 3D Visualisierung von Geodaten im Internet angewendet. Anders als bei VRML erfolgt bei der neu entwickelten Methode die gesamte 3D Datenverarbeitung serverseitig. Ein Rasterbild mit der aktuellen 3D Ansicht wird an den Client (Webbrowser) gesendet und dort visualisiert. Damit möglichst viele Internetanwender den 3D Viewer verwenden können, werden nur HTML Elemente verwendet, die in allen Browsern dargestellt werden können. In der virtuellen 3D Welt kann der Anwender beschränkt navigieren. Da die Maus sich zur Navigation in 3D nicht eignet, erfolgt die Interaktion über Buttons mit entsprechenden Symbolen. Damit der User schnell das gesucht Ziel im virtuellen Raum findet, verwendet der 3D Viewer eine gezielte Positionierung. Der Anwender kann entweder über eine Karte oder eine Suchfunktion den Ort der 3D Betrachtung festlegen. In den 3D Ansichten ist das Digitale Höhenmodell (DHM) mit überlagerten Verkehrsrouten, Gewässern und Hauptorten zu sehen. Zur Orientierung in der virtuellen Welt wird eine Übersichtskarte mit der aktuellen Position und Richtungsanzeige verwendet. Eine weitere Hilfe bei der Orientierung ist die Beschriftung von den höchsten Bergen und größten Orten. Diese Arbeit beschreibt die Realisierung eines 3D Viewers Prototyps und evaluiert, ob diese Methode einer breiten Benutzerschicht im Echtbetrieb zur Verfügung gestellt werden kann. Aufgebaut und ausgeführt wurde dieses Projekt in Zusammenarbeit mit der DORIS (Digitales Oberösterreichisches Raum Informations System) Systemgruppe der Landesregierung Oberösterreich.
Relevante Daten für die GIS-unterstützte Behandlung von Hochwasserkatastrophenszenarien für die Stadt Graz
Institut für Geoinformation, Technische Universität Graz 2004. Betreuer: Ao.Univ.Prof. Dr. Norbert Bartelme.
Kurzfassung/Abstract
Aus aktuellem Anlass sucht die Stadt Graz nach geeigneten Systemen, die es ihr ermöglichen, Hochwasserkatastrophenszenarien zu erstellen, die Einsatzkoordination im Falle eines Hochwassers effizienter zu gestalten, und den Einsatzkräften des Katastrophenschutzes zur allgemeinen Unterstützung die relevanten Daten schneller zur Verfügung stellen zu können.Die Stadt Graz muss dazu mit vielen verschiedenen Stellen zusammenarbeiten, die georeferenzierte Daten in uneinheitlicher Form liefern. In dieser Diplomarbeit wird nun erstmals eine umfassende Auflistung darüber erstellt, welche Daten in welcher Form in welchem Institut vorliegen und welche wichtigen Daten zukünftig noch in einer Datenbank gesammelt werden müssen.Weiters wird gezeigt, wie die unterschiedlichen Datenformate und -strukturen in ein gemeinsames System zusammengeführt werden können, um den Zugriff auf diese Daten durch ihre Einheitlichkeit zu erleichtern und für den Notfall auch zu beschleunigen.
Aus aktuellem Anlass sucht die Stadt Graz nach geeigneten Systemen, die es ihr ermöglichen, Hochwasserkatastrophenszenarien zu erstellen, die Einsatzkoordination im Falle eines Hochwassers effizienter zu gestalten, und den Einsatzkräften des Katastrophenschutzes zur allgemeinen Unterstützung die relevanten Daten schneller zur Verfügung stellen zu können.Die Stadt Graz muss dazu mit vielen verschiedenen Stellen zusammenarbeiten, die georeferenzierte Daten in uneinheitlicher Form liefern. In dieser Diplomarbeit wird nun erstmals eine umfassende Auflistung darüber erstellt, welche Daten in welcher Form in welchem Institut vorliegen und welche wichtigen Daten zukünftig noch in einer Datenbank gesammelt werden müssen.Weiters wird gezeigt, wie die unterschiedlichen Datenformate und -strukturen in ein gemeinsames System zusammengeführt werden können, um den Zugriff auf diese Daten durch ihre Einheitlichkeit zu erleichtern und für den Notfall auch zu beschleunigen.
Berechnung troposphärischer Gradienten
Institut für Geodäsie und Geophysik, Technische Universität Wien, 2004. Begutachter: O.Univ.Prof. Dr.-Ing. Harald Schuh, Betreuer: Dipl.-Ing. Dr. Johannes Böhm.
Kurzfassung/Abstract
Mit Hilfe der VLBI (Very Long Baseline Interferometry) werden geodätische Größen wie zum Beispiel Erdorientierungsparameter (EOP), Positionen von Radioquellen und Basislinienlängen bestimmt. An den Beobachtungsstationen ist die Laufzeitverzögerung in der „neutralen Atmosphäre“ eine der wesentlichen Fehlerquellen. Um bei der VLBI eine bestmögliche Genauigkeit erzielen zu können, müssen diese Laufzeitverzögerungen mit Projektionsfunktionen modelliert werden. Hierbei werden einerseits Projektionsfunktionen (mapping functions) verwendet, andererseits werden Asymmetrien durch sogenannte Gradientenansätze modelliert. Durch Projektionsfunktionen können Laufzeitverzögerungen von der Zenitrichtung in eine bestimmte Elevation umgerechnet werden. Die im Rahmen dieser Diplomarbeit entwickelte Projektionsfunktion Vienna Mapping Function 2 (VMF2) versucht die Fehler, die durch die Verwendung von herkömmlichen Gradientenmodellen entstehen können, durch Einbeziehung von numerischen Wettermodellen auszuschalten. Als Grundlage der VMF2 dient die Vienna Mapping Function (VMF, Boehm und Schuh 2004). Diese wurde hier um die Modellierung der azimutalen Asymmetrie der Laufzeitverzögerungen erweitert. Bei CONT02 handelt es sich um eine zweiwöchige VLBI Messkampagne (15.-31. Oktober 2002). Diese Kampagne, an der 8 Stationen teilnehmen, soll die bestmögliche Genauigkeit demonstrieren, die VLBI zurzeit erreichen kann. Anhand der Messkampagne CONT02 soll festgestellt werden, ob VMF2 gegenüber anderen Projektionsfunktionen Verbesserungen bringt und in welcher Größenordnung diese liegen. Es wurden für einen Anfangselevationswinkel von 3.3ˆ jede sechs Stunden und alle 30ˆ im Azimut die Parameter ah und aw berechnet. Diese Ergebnisse gehen später in die Auswertesoftware OCCAM ein. Die Auswertungen mit der Software OCCAM zeigen, dass die VMF2 ohne zusätzlich geschätzte Gradienten Verbesserungen gegenüber herkömmlichen Projektionsfunktionen bringt.
Mit Hilfe der VLBI (Very Long Baseline Interferometry) werden geodätische Größen wie zum Beispiel Erdorientierungsparameter (EOP), Positionen von Radioquellen und Basislinienlängen bestimmt. An den Beobachtungsstationen ist die Laufzeitverzögerung in der „neutralen Atmosphäre“ eine der wesentlichen Fehlerquellen. Um bei der VLBI eine bestmögliche Genauigkeit erzielen zu können, müssen diese Laufzeitverzögerungen mit Projektionsfunktionen modelliert werden. Hierbei werden einerseits Projektionsfunktionen (mapping functions) verwendet, andererseits werden Asymmetrien durch sogenannte Gradientenansätze modelliert. Durch Projektionsfunktionen können Laufzeitverzögerungen von der Zenitrichtung in eine bestimmte Elevation umgerechnet werden. Die im Rahmen dieser Diplomarbeit entwickelte Projektionsfunktion Vienna Mapping Function 2 (VMF2) versucht die Fehler, die durch die Verwendung von herkömmlichen Gradientenmodellen entstehen können, durch Einbeziehung von numerischen Wettermodellen auszuschalten. Als Grundlage der VMF2 dient die Vienna Mapping Function (VMF, Boehm und Schuh 2004). Diese wurde hier um die Modellierung der azimutalen Asymmetrie der Laufzeitverzögerungen erweitert. Bei CONT02 handelt es sich um eine zweiwöchige VLBI Messkampagne (15.-31. Oktober 2002). Diese Kampagne, an der 8 Stationen teilnehmen, soll die bestmögliche Genauigkeit demonstrieren, die VLBI zurzeit erreichen kann. Anhand der Messkampagne CONT02 soll festgestellt werden, ob VMF2 gegenüber anderen Projektionsfunktionen Verbesserungen bringt und in welcher Größenordnung diese liegen. Es wurden für einen Anfangselevationswinkel von 3.3ˆ jede sechs Stunden und alle 30ˆ im Azimut die Parameter ah und aw berechnet. Diese Ergebnisse gehen später in die Auswertesoftware OCCAM ein. Die Auswertungen mit der Software OCCAM zeigen, dass die VMF2 ohne zusätzlich geschätzte Gradienten Verbesserungen gegenüber herkömmlichen Projektionsfunktionen bringt.
GIS-gestützte Analyse der Lebensmittelnahversorgungssituation in Klagenfurt
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am Magistrat Klagenfurt, Abteilung Stadtplanung. Begutachter/Betreuer: Mag. Dr. rer.nat. Paulus Gernot (FH Technikum Kärnten), Dipl.-Ing. Robert Piechl (Magistrat der Stadt Klagenfurt)
Kurzfassung/Abstract
Das Thema dieser Diplomarbeit ist die GIS-gestützte Analyse der Lebensmittelnahversorgungssituation in Klagenfurt. Erstmals wurde für die Abteilung Stadtplanung des Magistrates der Gemeinde Klagenfurt eine solche Analyse angestellt. Durch den Einsatz von GIS wurden für die Stadtplanung neue Methoden zur Abbildung, Analyse und Bewertung der Lebensmittelnahversorgungssituation entwickelt. Analysiert wurden zwei verschiedene Arten von Erreichbarkeiten: die Erreichbarkeit eines Nahversorgers zu Fuß und die Erreichbarkeit eines Nahversorgers mit dem PKW. Basierend auf diesen Erreichbarkeiten werden Einzugsbereiche festgelegt. Diese Einzugsbereiche sind dann herangezogen worden, um die Grade der Versorgung im Untersuchungsgebiet, der Einwohner in Klagenfurt und die der Baulandreserven zu ermitteln. Es wurde also visualisiert, zu wie vielen Nahversorger ein Einwohner einerseits Zugang zu Fuß, und andererseits Zugang mit dem PKW hat. Die Ermittlung der Versorgungsgrade der Baulandreserven diente der Ermittlung jener Gebiete, in denen eine Errichtung von Wohnanlagen sinnvoll wäre, da diese bereits versorgt werden. Die Erreichbarkeit eines Nahversorgers durch den öffentlichen Personennahverkehr (ÖPNV) ist im Rahmen dieser Untersuchung nicht analysiert worden. Folgende Methoden wurden entwickelt bzw. angewandt: (1) Eine Berechnung der Einzugsbereiche eines Nahversorgers für die Erreichbarkeit mit dem PKW wurde entwickelt. Mit dieser Berechnung wurde für jeden Nahversorger, in Abhängigkeit seiner Verkaufsfläche und der Anzahl der Parkplätze, individuell der Einzugsbereich (Versorgungsbereich) ermittelt. (2) Die erzielten Ergebnisse dienten dann als Input für eine Netzwerkanalyse, zur Berechnung und Visualisierung der Einzugsbereiche am Graphen (Distanz basiert). Bei dieser Methode wurden Einbahnen und Fahrverbote berücksichtigt. (3) Mittels Rasteranalysen wurde dann der Grad der Versorgung (durch Nahversorger) an jedem beliebigen Punkt im Untersuchungsgebiet ermittelt. Die erwarteten Ergebnisse wurden erfüllt: Mittels der Ermittlung und Abbildung der Erreichbarkeiten zu Fuß und mit dem PKW, und einer anschließenden Rasteranalyse, konnte die derzeitige Versorgungssituation durch Nahversorger dargestellt werden. Außerdem erfolgte eine Bewertung der, für diese Analyse herangezogen, Geodaten hinsichtlich ihrer Brauchbarkeit in dieser Untersuchung. Der mit dieser Untersuchung gelieferte Ansatz zur Versorgungsgradanalyse kann auch auf andere Interessensbereiche (wie z.B.: Erreichbarkeit/Versorgung von Apotheken, von Schulen, von Horten,…) übertragen werden. Die Datengrundlage, die methodische Vorgehensweise zur Ermittlung der Einzugsbereiche, der Netzwerkanalyse und der Rasteranalyse werden genau angeführt und erläutert.
Das Thema dieser Diplomarbeit ist die GIS-gestützte Analyse der Lebensmittelnahversorgungssituation in Klagenfurt. Erstmals wurde für die Abteilung Stadtplanung des Magistrates der Gemeinde Klagenfurt eine solche Analyse angestellt. Durch den Einsatz von GIS wurden für die Stadtplanung neue Methoden zur Abbildung, Analyse und Bewertung der Lebensmittelnahversorgungssituation entwickelt. Analysiert wurden zwei verschiedene Arten von Erreichbarkeiten: die Erreichbarkeit eines Nahversorgers zu Fuß und die Erreichbarkeit eines Nahversorgers mit dem PKW. Basierend auf diesen Erreichbarkeiten werden Einzugsbereiche festgelegt. Diese Einzugsbereiche sind dann herangezogen worden, um die Grade der Versorgung im Untersuchungsgebiet, der Einwohner in Klagenfurt und die der Baulandreserven zu ermitteln. Es wurde also visualisiert, zu wie vielen Nahversorger ein Einwohner einerseits Zugang zu Fuß, und andererseits Zugang mit dem PKW hat. Die Ermittlung der Versorgungsgrade der Baulandreserven diente der Ermittlung jener Gebiete, in denen eine Errichtung von Wohnanlagen sinnvoll wäre, da diese bereits versorgt werden. Die Erreichbarkeit eines Nahversorgers durch den öffentlichen Personennahverkehr (ÖPNV) ist im Rahmen dieser Untersuchung nicht analysiert worden. Folgende Methoden wurden entwickelt bzw. angewandt: (1) Eine Berechnung der Einzugsbereiche eines Nahversorgers für die Erreichbarkeit mit dem PKW wurde entwickelt. Mit dieser Berechnung wurde für jeden Nahversorger, in Abhängigkeit seiner Verkaufsfläche und der Anzahl der Parkplätze, individuell der Einzugsbereich (Versorgungsbereich) ermittelt. (2) Die erzielten Ergebnisse dienten dann als Input für eine Netzwerkanalyse, zur Berechnung und Visualisierung der Einzugsbereiche am Graphen (Distanz basiert). Bei dieser Methode wurden Einbahnen und Fahrverbote berücksichtigt. (3) Mittels Rasteranalysen wurde dann der Grad der Versorgung (durch Nahversorger) an jedem beliebigen Punkt im Untersuchungsgebiet ermittelt. Die erwarteten Ergebnisse wurden erfüllt: Mittels der Ermittlung und Abbildung der Erreichbarkeiten zu Fuß und mit dem PKW, und einer anschließenden Rasteranalyse, konnte die derzeitige Versorgungssituation durch Nahversorger dargestellt werden. Außerdem erfolgte eine Bewertung der, für diese Analyse herangezogen, Geodaten hinsichtlich ihrer Brauchbarkeit in dieser Untersuchung. Der mit dieser Untersuchung gelieferte Ansatz zur Versorgungsgradanalyse kann auch auf andere Interessensbereiche (wie z.B.: Erreichbarkeit/Versorgung von Apotheken, von Schulen, von Horten,…) übertragen werden. Die Datengrundlage, die methodische Vorgehensweise zur Ermittlung der Einzugsbereiche, der Netzwerkanalyse und der Rasteranalyse werden genau angeführt und erläutert.
Using the ArcGIS-Extension Survey Analyst for a Measurement-Based Cadastral System
Institut für Geoinformation und Kartographie, Technische Universität Wien, 2004. Begutachter: o.Univ.-Prof. Dr. Andrew U. Frank, Betreuer: Dipl.-Ing. Dr.techn. Gerhard Navratil
Kurzfassung/Abstract
First ideas on measurement-based GIS have been presented in the late 1980s. At that time computing power for such a system has not been available, nor has the software. In 2002 ESRI presented an extension to ArcGIS, the Survey Analyst. Survey Analyst combines GIS data sets with measurements used to compute the coordinates of the points forming the data set. This allows setting up measurement-based systems. The diploma thesis investigates if the system is fit for the use for a measurement-based cadastral system. A small cadastral data set is used to test the management capabilities of the Survey Analyst. The thesis does not stress performance but the functionality. The result of the thesis is, that in principle the survey analyst can be used for cadastral systems. The thesis also presents a list of eight points where development work is necessary. However, Survey Analyst is an excellent example for including measurements in a GIS.
First ideas on measurement-based GIS have been presented in the late 1980s. At that time computing power for such a system has not been available, nor has the software. In 2002 ESRI presented an extension to ArcGIS, the Survey Analyst. Survey Analyst combines GIS data sets with measurements used to compute the coordinates of the points forming the data set. This allows setting up measurement-based systems. The diploma thesis investigates if the system is fit for the use for a measurement-based cadastral system. A small cadastral data set is used to test the management capabilities of the Survey Analyst. The thesis does not stress performance but the functionality. The result of the thesis is, that in principle the survey analyst can be used for cadastral systems. The thesis also presents a list of eight points where development work is necessary. However, Survey Analyst is an excellent example for including measurements in a GIS.
Verifikation der Auswahl von Open Source Produkten für OpenGIS Webservices
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt an der Universität der Bundeswehr München, AGEO, Deutschland. Begutachter/Betreuer: Dipl.-Ing. Dr.techn. Adrijana Car (FH Technikum Kärnten), Prof. Dr. Wolfgang Reinhard (Universität der Bundeswehr München)
Kurzfassung/Abstract
This diploma thesis describes the methods and results of a project accomplished by the authoress at the GIS Lab (AGIS) at the University of the Bundeswehr Munich. The translated name of the project is OpenGIS Concepts for Geoservices. It deals with investigations on existing OGC web service specifications and their open source implementations with regard to the special requirements of a mobile multidimensional data acquisition system based on the Internet. OpenGIS Concepts for Geoservices is part of the project Advancement of Geoservices carried out by the AGIS in cooperation with several research institutes during the period of the thesis and beyond. The project Advancement of Geoservices is sponsored by the German Federal Ministry of Education and Research. It aims to develop an overall concept for mobile online-acquisition, maintenance, usage and visualization of multidimensional geodata. The development of a prototype shows the technical feasibility of this system. First step in the subproject OpenGIS Concepts for Geoservices is the identification of the requirements of the service. The next step is to find out which OGC web service specifications meet these requirements. A market analysis is accomplished to give an overview on available open source implementations of those OGC web services. As an open source product which fulfills the identified requirements the product deegree is chosen. A series of functional testing verifies this selection. Besides functionality the performance of a web service is an important factor to its success. To examine the performance of the chosen open source product benchmarks for OGC conformant web mapping and web feature services are developed. Up to now no such benchmarks existed. The results of the bench-marks carried out at the chosen product help to estimate the capacity of the hardware for productive use.
This diploma thesis describes the methods and results of a project accomplished by the authoress at the GIS Lab (AGIS) at the University of the Bundeswehr Munich. The translated name of the project is OpenGIS Concepts for Geoservices. It deals with investigations on existing OGC web service specifications and their open source implementations with regard to the special requirements of a mobile multidimensional data acquisition system based on the Internet. OpenGIS Concepts for Geoservices is part of the project Advancement of Geoservices carried out by the AGIS in cooperation with several research institutes during the period of the thesis and beyond. The project Advancement of Geoservices is sponsored by the German Federal Ministry of Education and Research. It aims to develop an overall concept for mobile online-acquisition, maintenance, usage and visualization of multidimensional geodata. The development of a prototype shows the technical feasibility of this system. First step in the subproject OpenGIS Concepts for Geoservices is the identification of the requirements of the service. The next step is to find out which OGC web service specifications meet these requirements. A market analysis is accomplished to give an overview on available open source implementations of those OGC web services. As an open source product which fulfills the identified requirements the product deegree is chosen. A series of functional testing verifies this selection. Besides functionality the performance of a web service is an important factor to its success. To examine the performance of the chosen open source product benchmarks for OGC conformant web mapping and web feature services are developed. Up to now no such benchmarks existed. The results of the bench-marks carried out at the chosen product help to estimate the capacity of the hardware for productive use.
Identifikation von Operationen zur Nutzung Digitaler Karten
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am Institut für Geoinformation der Technischen Universtät Wien. Begutachter/Betreuer: Dipl.-Ing. Dr.techn. Adrijana Car (FH Technikum Kärnten), o.Univ.-Prof. Dr. Andrew U. Frank (TU Wien)
Kurzfassung/Abstract
Die Frage, die dieser Arbeit zugrunde liegt, ist, welche Funktionen Benutzer von Karten im Internet benötigen, um Antworten auf die jeweiligen Aufgabenstellungen zu bekommen. Um diese Frage zu beantworten wird eine Analyse von Kartennutzungsoperationen durchgeführt. Die Analyse konzentriert sich auf die Nutzung von analogen topographischen Karten. Die Wahl dieses Ansatzes liegt in der langen Geschichte analoger Karten und in den daraus resultierenden durchdachten Kartennutzungsoperationen begründet. Die Autorin trifft die grundlegende Annahme, dass es eine Menge von Operationen gibt, die Kartenbenutzer sowohl mit analogen als auch mit digitalen Karten ausführen wollen. Die Identifizierung der grundlegenden Kartennutzungsoperationen erfolgt durch eine Analyse der in der Kartographieliteratur beschriebenen Operationen. Die identifizierten Operationen können jeweils der Gruppe der Messoperationen, Operationen zur Interpretation der Topographie oder Navigationsoperationen zugeordnet werden. Eine Diskussion der einzelnen Operationen ist die Grundlage für deren Spezifikation. Für die Spezifikation der Kartennutzungsoperationen wird der Ansatz der algebraischen Spezifikation gewählt. Dieser Ansatz ist aus dem Software Engineering Bereich bekannt. Das Ergebnis dieser Arbeit ist die Spezifikation von grundlegenden Operationen, die zur Analyse von Karten benötigt werden. Die Analyse der Spezifikation der Operationen kann zur Steigerung der Nutzbarkeit von Web Mapping Applikationen beitragen, da deutlich wird, welche Informationen zum Ausführen einer Operation benötigt werden. Wenn klar ist, welche Informationen der Kartenbenutzer benötigt, kann danach gestrebt werden die Kommunikation dieser Informationen durch die von einer Applikation bereitgestellten Werkzeuge zu verbessern.
Die Frage, die dieser Arbeit zugrunde liegt, ist, welche Funktionen Benutzer von Karten im Internet benötigen, um Antworten auf die jeweiligen Aufgabenstellungen zu bekommen. Um diese Frage zu beantworten wird eine Analyse von Kartennutzungsoperationen durchgeführt. Die Analyse konzentriert sich auf die Nutzung von analogen topographischen Karten. Die Wahl dieses Ansatzes liegt in der langen Geschichte analoger Karten und in den daraus resultierenden durchdachten Kartennutzungsoperationen begründet. Die Autorin trifft die grundlegende Annahme, dass es eine Menge von Operationen gibt, die Kartenbenutzer sowohl mit analogen als auch mit digitalen Karten ausführen wollen. Die Identifizierung der grundlegenden Kartennutzungsoperationen erfolgt durch eine Analyse der in der Kartographieliteratur beschriebenen Operationen. Die identifizierten Operationen können jeweils der Gruppe der Messoperationen, Operationen zur Interpretation der Topographie oder Navigationsoperationen zugeordnet werden. Eine Diskussion der einzelnen Operationen ist die Grundlage für deren Spezifikation. Für die Spezifikation der Kartennutzungsoperationen wird der Ansatz der algebraischen Spezifikation gewählt. Dieser Ansatz ist aus dem Software Engineering Bereich bekannt. Das Ergebnis dieser Arbeit ist die Spezifikation von grundlegenden Operationen, die zur Analyse von Karten benötigt werden. Die Analyse der Spezifikation der Operationen kann zur Steigerung der Nutzbarkeit von Web Mapping Applikationen beitragen, da deutlich wird, welche Informationen zum Ausführen einer Operation benötigt werden. Wenn klar ist, welche Informationen der Kartenbenutzer benötigt, kann danach gestrebt werden die Kommunikation dieser Informationen durch die von einer Applikation bereitgestellten Werkzeuge zu verbessern.
Auswirkungen der VLBI-Beobachtungsgeometrie auf die geodätischen Parameter
Institut für Geodäsie und Geophysik, Technische Universität Wien, 2004. Begutachter: O.Univ.Prof. Dr.-Ing. Harald Schuh, Betreuer: Dipl.-Ing. Dr. Johannes Böhm.
Kurzfassung/Abstract
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie sich in der geodätischen VLBI (Very Long Baseline Interferometry) die Änderung der Beobachtungsgeometrie, also der Anordnungen der Stationen auf der Erde, auf die gesuchten Parameter auswirkt. Damit sind vor allem die Erdrotationsparameter gemeint, im konkreten Nutation (dpsi und deps), Polbewegung (xpol, ypol) und Rotation der Erde, ausgedrückt durch die Änderung der Differenzen Weltzeit minus koordinierte Zeit (UT1-UTC).Im Rahmen der durchgeführten Simulationen wurde besonders darauf geachtet, nicht nur gut verteilte Stationsnetze zu untersuchen, sondern auch extreme Netzanordnungen zu testen. Damit soll gezeigt werden, welche Anordnungen für die Bestimmung der Parameter gut und welche überhaupt nicht geeignet sind. Speziell die Stationsparameter (Nord, Ost, Up (=Höhe), Uhr und ZWD (engl.: Zenith Wet Delay, feuchte Laufzeitverzögerung in Zenitrichtung)) zeigen hohe Korrelationen miteinander, jeweils in Abhängigkeit von verschiedenen Cut-Off-Winkeln. Es stellt sich heraus, dass der Fehler in der Uhr immer größer ist als in Nord, Ost, Up und ZWD. Für die Untersuchung der Erdorientierungsparameter (EOP) wurden neben gut verteilten Netzen vor allem die extremen Netzanordnungen untersucht. Dabei wurden die Stationen z. B. entlang von Längen- oder Breitenkreisen platziert, um zu zeigen, welche Netzanordnung für die Bestimmung gewisser Parameter optimal und welche nicht mehr brauchbar ist. Die EOP-Untersuchungen zeigen vor allem, dass die kurzperiodischen Schätzungen der Polbewegung sehr hoch mit den langperiodischen der Nutation korreliert sind. Da bei einer hohen Korrelation zwischen verschiedenen Parametern diese nicht mehr voneinander getrennt werden können, muss man z.B. bei Schätzung der Polbewegung die Nutation fixieren; man kann also nicht beide Effekte gleichzeitig schätzen.
Die vorliegende Arbeit beschäftigt sich mit der Frage, wie sich in der geodätischen VLBI (Very Long Baseline Interferometry) die Änderung der Beobachtungsgeometrie, also der Anordnungen der Stationen auf der Erde, auf die gesuchten Parameter auswirkt. Damit sind vor allem die Erdrotationsparameter gemeint, im konkreten Nutation (dpsi und deps), Polbewegung (xpol, ypol) und Rotation der Erde, ausgedrückt durch die Änderung der Differenzen Weltzeit minus koordinierte Zeit (UT1-UTC).Im Rahmen der durchgeführten Simulationen wurde besonders darauf geachtet, nicht nur gut verteilte Stationsnetze zu untersuchen, sondern auch extreme Netzanordnungen zu testen. Damit soll gezeigt werden, welche Anordnungen für die Bestimmung der Parameter gut und welche überhaupt nicht geeignet sind. Speziell die Stationsparameter (Nord, Ost, Up (=Höhe), Uhr und ZWD (engl.: Zenith Wet Delay, feuchte Laufzeitverzögerung in Zenitrichtung)) zeigen hohe Korrelationen miteinander, jeweils in Abhängigkeit von verschiedenen Cut-Off-Winkeln. Es stellt sich heraus, dass der Fehler in der Uhr immer größer ist als in Nord, Ost, Up und ZWD. Für die Untersuchung der Erdorientierungsparameter (EOP) wurden neben gut verteilten Netzen vor allem die extremen Netzanordnungen untersucht. Dabei wurden die Stationen z. B. entlang von Längen- oder Breitenkreisen platziert, um zu zeigen, welche Netzanordnung für die Bestimmung gewisser Parameter optimal und welche nicht mehr brauchbar ist. Die EOP-Untersuchungen zeigen vor allem, dass die kurzperiodischen Schätzungen der Polbewegung sehr hoch mit den langperiodischen der Nutation korreliert sind. Da bei einer hohen Korrelation zwischen verschiedenen Parametern diese nicht mehr voneinander getrennt werden können, muss man z.B. bei Schätzung der Polbewegung die Nutation fixieren; man kann also nicht beide Effekte gleichzeitig schätzen.
Softwaregestützte Methoden zur praxistauglichen Durchführung des Orientierungsprozesses eines Laserscanners
Institut für Navigation und Satellitengeodäsie. TU-Graz 2004. Betreuer: Univ.-Prof. Dipl.-Ing. Dr.techn. Bernhard Hofmann-Wellenhof.
Kurzfassung/Abstract
Eine Tiroler Firma (DIBIT GmbH) entwickelt in Zusammenarbeit mit dem Institut für Digitale Bildverarbeitung des Joanneum Research Graz Messsysteme in Verbindung mit einem terrestrischen Laserscanner. Dafür können im Prinzip beliebige Laserscanner eingesetzt werden, wobei in der vorliegenden Arbeit vor allem auf die Produkte der Fa. Riegl eingegangen wird. Die Bestimmung der Position und der räumlichen Ausrichtung eines Laserscanners in Bezug auf ein übergeordnetes Koordinatensystem steht hier im Vordergrund (absolute Orientierung). Der Bezug wird durch die Bestimmung von 3D-Transformationsparmetern hergestellt, die im Zuge des Orientierungsprozesses ermittelt werden. Das Verfahren beruht auf der terrestrischen Einmessung von Passpunkten, die durch Zielmarken signalisiert werden, womit die Erkennung dieser Punkte auch in den Scannerdaten möglich ist. Es wurden einerseits bestehende Algorithmen für die automatische Zielmarkenerkennung verbessert und andererseits neue Algorithmen für die automatische Zuordnung von korrespondierenden Punkten im lokalen und übergeordneten Koordinatensystem entwickelt. Zusätzlich wurde die automatische Berechnung von Transformationsparametern bei gleichzeitiger Elimination grober Datenfehler implementiert. Die Algorithmen wurden in einer Softwarebibliothek zusammengefasst. Diese wurde in eine ebenfalls neu entwickelte Software für die manuelle Berechnung der Orientierung sowie in eine bestehende Auswertesoftware für die vollautomatische Auswertung integriert.
Eine Tiroler Firma (DIBIT GmbH) entwickelt in Zusammenarbeit mit dem Institut für Digitale Bildverarbeitung des Joanneum Research Graz Messsysteme in Verbindung mit einem terrestrischen Laserscanner. Dafür können im Prinzip beliebige Laserscanner eingesetzt werden, wobei in der vorliegenden Arbeit vor allem auf die Produkte der Fa. Riegl eingegangen wird. Die Bestimmung der Position und der räumlichen Ausrichtung eines Laserscanners in Bezug auf ein übergeordnetes Koordinatensystem steht hier im Vordergrund (absolute Orientierung). Der Bezug wird durch die Bestimmung von 3D-Transformationsparmetern hergestellt, die im Zuge des Orientierungsprozesses ermittelt werden. Das Verfahren beruht auf der terrestrischen Einmessung von Passpunkten, die durch Zielmarken signalisiert werden, womit die Erkennung dieser Punkte auch in den Scannerdaten möglich ist. Es wurden einerseits bestehende Algorithmen für die automatische Zielmarkenerkennung verbessert und andererseits neue Algorithmen für die automatische Zuordnung von korrespondierenden Punkten im lokalen und übergeordneten Koordinatensystem entwickelt. Zusätzlich wurde die automatische Berechnung von Transformationsparametern bei gleichzeitiger Elimination grober Datenfehler implementiert. Die Algorithmen wurden in einer Softwarebibliothek zusammengefasst. Diese wurde in eine ebenfalls neu entwickelte Software für die manuelle Berechnung der Orientierung sowie in eine bestehende Auswertesoftware für die vollautomatische Auswertung integriert.
Interaktivität bei Web Clients: Editieren von Geodaten im World Wide Web
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt bei Umweltdata Ges.m.b.H, Wien. Betreuer/Gutachter: Mag. Dr. rer.nat. Paulus Gernot (FH Technikum Kärnten), Dipl.-Ing. Hannes Burger (Umweltdata Ges.m.b.H)
Kurzfassung/Abstract
Die Zahl der Karten, die im Internet präsentiert werden nimmt enorm zu. Schätzungen gehen davon aus, dass etwa 40 Millionen Karten weltweit täglich von Internet Nutzern aufgerufen werden. Diese Karten decken verschiedenste Wissens- und Anwendungsgebiete ab und werden dadurch nur von bestimmten Personen verwendet, für die sie von Interesse sind. Diese Diplomarbeit befasst sich einerseits mit dem Aspekt, dass unterschiedliche Kartennutzer, auch unterschiedliche Werkzeuge (Funktionalitäten) benötigen, um diese für sich repräsentativ zu gestalten zu können. So werden im Zuge dieser Arbeit Gruppen von Benutzern definiert, denen bestimmte Funktionalitäten zu Verfügung stehen können, ohne den Benutzer damit zu überfordern. Besonderes Beachtung findet dabei die Funktionalität des Datenerfassens im Internet. Um diese Funktionalitäten anbieten zu können, werden Softwareprodukte benötigt, die diese bereitstellen. Anhand der g.business suite der Firma GeoTask wird veranschaulicht, wie so ein Produkt technisch aufgebaut ist. Dieses Produkt wird deshalb hier betrachtet, weil es damit möglich ist, geografische Daten im Internet zu erfassen. In weiterer Folge werden Kriterien erarbeitet, anhand denen man diese Art von Software vergleichen kann. Abschließend wird ein Vergleich zwischen der g.business suite und ArcIMS 9 der Firma ESRI durchgeführt.
Die Zahl der Karten, die im Internet präsentiert werden nimmt enorm zu. Schätzungen gehen davon aus, dass etwa 40 Millionen Karten weltweit täglich von Internet Nutzern aufgerufen werden. Diese Karten decken verschiedenste Wissens- und Anwendungsgebiete ab und werden dadurch nur von bestimmten Personen verwendet, für die sie von Interesse sind. Diese Diplomarbeit befasst sich einerseits mit dem Aspekt, dass unterschiedliche Kartennutzer, auch unterschiedliche Werkzeuge (Funktionalitäten) benötigen, um diese für sich repräsentativ zu gestalten zu können. So werden im Zuge dieser Arbeit Gruppen von Benutzern definiert, denen bestimmte Funktionalitäten zu Verfügung stehen können, ohne den Benutzer damit zu überfordern. Besonderes Beachtung findet dabei die Funktionalität des Datenerfassens im Internet. Um diese Funktionalitäten anbieten zu können, werden Softwareprodukte benötigt, die diese bereitstellen. Anhand der g.business suite der Firma GeoTask wird veranschaulicht, wie so ein Produkt technisch aufgebaut ist. Dieses Produkt wird deshalb hier betrachtet, weil es damit möglich ist, geografische Daten im Internet zu erfassen. In weiterer Folge werden Kriterien erarbeitet, anhand denen man diese Art von Software vergleichen kann. Abschließend wird ein Vergleich zwischen der g.business suite und ArcIMS 9 der Firma ESRI durchgeführt.
Erstellung eines photorealistischen 3D-Modells der Kirche San Juan del Hospital in Valencia / Spanien
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2004. Begutachter: o.Univ.Prof. Dr.-Ing. Karl Kraus, Betreuer: Ass.Prof. Dipl.-Ing. Dr.techn. Helmut Kager, Univ.Ass. Dipl.-Ing. Dr.techn. Franz Rottensteiner
Kurzfassung/Abstract
Diese Diplomarbeit wurde am Institut für Photogrammetrie und Fernerkundung (I.P.F.) erstellt, in Kooperation mit Dr. José Luis Lerma García, Departamento de Ingeniería Cartográfica, Geodésia y Fotogrametría, ETSIGCT, Universidad Polytécnica de Valencia, Spanien. Ziel war die Erstellung eines geometrisch exakten Photomodells der Kirche San Juan del Hospital in der historischen Altstadt von Valencia. Die Ausgabe sollte im standardisierten, weit verbreiteten, plattform- und herstellerunabhängigen Format VRML97 erfolgen. San Juan del Hospital wurde 1238 a.d. erbaut, im Jahr der endgültigen Rückeroberung des bis dahin arabischen Valencias durch christliche Truppen ("Reconquista", 722 -1492). Dieser Zeitpunkt liegt bereits am Ende der kunsthistorischen Epoche der Romanik (ca. 950 - 1250), weshalb auf der iberischen Halbinsel nur sehr wenige sakrale Bauten in diesem Stil errichtet wurden, noch weniger sind bis heute erhalten geblieben. Besonders hieraus wird die Notwendigkeit der Dokumentation ersichtlich. In unmittelbarer Nachbarschaft zum Kirchengebäude befindet sich ein ebenso alter steinerner Pavillon, der einst für Zeremonien zur Bestattung am umgebenden Friedhof Nutzung fand. Das Kirchengebäude sollte mit einer geometrischen Genauigkeit wie auch einem radiometrischen Detaillierungsgrad von 5cm, der Pavillon resp. mit 2cm modelliert werden. Um dies bei dieser komplexen Geometrie und äußerst schweren Zugänglichkeit zu erreichen, sollten alle zur Verfügung stehenden Mittel genutzt werden. So waren zu Beginn die bereits vorhandenen photogrammetrischen und tachymetrischen Auswertungen zu beurteilen. Es stellte sich allerdings heraus, daß eine komplette Neuaufnahme des Objekts sich wesentlich wirtschaftlicher gestalten würde. Um die Erstellung des Modells zu beschleunigen bzw. sie überhaupt flächendeckend zu ermöglichen, würde die exzessive Nutzung von Gestaltinformationen nötig werden. Deren Verwendung kann allerdings eine projektbegleitende Kamerakalibrierung negativ beeinflussen, weshalb vor Beginn der Aufnahmen die innere Orientierung der zur Verfügung stehenden Amateur-Digitalkamera in einem Testfeld bestimmt wurde. Statistische Tests ergaben aber, daß diese sich nach einer vorübergehenden Verstellung der Fokussierung und Brennweite nicht wiederherstellen ließ. Deshalb schien es vorteilhaft, zahlreiche tachymetrische Paßpunkte zu bestimmen. Die Belichtung und spätere Auswahl der Photogramme geschahen unter Berücksichtigung der geforderten Objektauflösung und maximalen Unschärfe der zu entzerrenden Textur. Gestaltinformation wurde in Form von expliziten wie auch impliziten Gleichungen bis vierten Grades in den hybriden Block integriert. Dabei kam die große Universalität des verwendeten Programmsystems ORIENT/ORPHEUS zur Geltung. Viele Koeffizienten wurden mehrfach verwendet, um Baugleichheit von Objektteilen wie Säulen, Kuppelsegmenten oder auch Spiegelsymmetrien zum Ausdruck zu bringen. Die zu verwendenden Parameter wurden auf Signifikanz getestet und entsprechend angepasst. Schließlich wurden mit Hilfe der robusten Fehlerschätzung schlechte Beobachtungen aus dem Block entfernt. An Hand der Ergebnisse der Varianzkomponentenschätzung waren noch die a priori Standardabweichungen der verschiedenen Beobachtungs-Genauigkeitsklassen anzupassen. An der endgültigen Ausgleichung nahmen ca. 12€000 Beobachtungen teil, aus denen rund 7000 Unbekannte geschätzt wurden. Nach der Definition der Topologie wurde nun das Modell ins Format VRML97 exportiert. Es zeigte sich, daß ein Farbabgleich der bei unterschiedlichen Witterungsverhältnissen getätigten Aufnahmen nötig war. Verschiedene dynamische Elemente wurden programmiert. So erscheint der Pavillon je nach Distanz zum virtuellen Betrachter in verschiedenen Auflösungen; ein animierter Rundgang kann gestartet und historische Information eingeblendet werden; auf verschiedenen Anzeigetafeln können Programmodule geschaltet, die Stellung des Betrachters im Raum angezeigt und ein kleines Tutorium gestartet werden. Weiters ist es möglich, Koordinaten und Strecken am Objekt zu messen. Alternativ dazu kann der Betrachter in die Qualität der Punktbestimmung Einsicht nehmen. Dies geschieht durch Visualisierung der photogrammetrischen und polaren Beobachtungsstrahlen im Raum, durch numerische wie graphische Ausgabe der Punktgenauigkeit in Form der Koordinatenstandardabweichungen bzw. des Fehlerellipsoids im Punkt und durch Anzeige der Anzahl der zur Bestimmung des Punktes verwendeten Beobachtungsgleichungen.
Diese Diplomarbeit wurde am Institut für Photogrammetrie und Fernerkundung (I.P.F.) erstellt, in Kooperation mit Dr. José Luis Lerma García, Departamento de Ingeniería Cartográfica, Geodésia y Fotogrametría, ETSIGCT, Universidad Polytécnica de Valencia, Spanien. Ziel war die Erstellung eines geometrisch exakten Photomodells der Kirche San Juan del Hospital in der historischen Altstadt von Valencia. Die Ausgabe sollte im standardisierten, weit verbreiteten, plattform- und herstellerunabhängigen Format VRML97 erfolgen. San Juan del Hospital wurde 1238 a.d. erbaut, im Jahr der endgültigen Rückeroberung des bis dahin arabischen Valencias durch christliche Truppen ("Reconquista", 722 -1492). Dieser Zeitpunkt liegt bereits am Ende der kunsthistorischen Epoche der Romanik (ca. 950 - 1250), weshalb auf der iberischen Halbinsel nur sehr wenige sakrale Bauten in diesem Stil errichtet wurden, noch weniger sind bis heute erhalten geblieben. Besonders hieraus wird die Notwendigkeit der Dokumentation ersichtlich. In unmittelbarer Nachbarschaft zum Kirchengebäude befindet sich ein ebenso alter steinerner Pavillon, der einst für Zeremonien zur Bestattung am umgebenden Friedhof Nutzung fand. Das Kirchengebäude sollte mit einer geometrischen Genauigkeit wie auch einem radiometrischen Detaillierungsgrad von 5cm, der Pavillon resp. mit 2cm modelliert werden. Um dies bei dieser komplexen Geometrie und äußerst schweren Zugänglichkeit zu erreichen, sollten alle zur Verfügung stehenden Mittel genutzt werden. So waren zu Beginn die bereits vorhandenen photogrammetrischen und tachymetrischen Auswertungen zu beurteilen. Es stellte sich allerdings heraus, daß eine komplette Neuaufnahme des Objekts sich wesentlich wirtschaftlicher gestalten würde. Um die Erstellung des Modells zu beschleunigen bzw. sie überhaupt flächendeckend zu ermöglichen, würde die exzessive Nutzung von Gestaltinformationen nötig werden. Deren Verwendung kann allerdings eine projektbegleitende Kamerakalibrierung negativ beeinflussen, weshalb vor Beginn der Aufnahmen die innere Orientierung der zur Verfügung stehenden Amateur-Digitalkamera in einem Testfeld bestimmt wurde. Statistische Tests ergaben aber, daß diese sich nach einer vorübergehenden Verstellung der Fokussierung und Brennweite nicht wiederherstellen ließ. Deshalb schien es vorteilhaft, zahlreiche tachymetrische Paßpunkte zu bestimmen. Die Belichtung und spätere Auswahl der Photogramme geschahen unter Berücksichtigung der geforderten Objektauflösung und maximalen Unschärfe der zu entzerrenden Textur. Gestaltinformation wurde in Form von expliziten wie auch impliziten Gleichungen bis vierten Grades in den hybriden Block integriert. Dabei kam die große Universalität des verwendeten Programmsystems ORIENT/ORPHEUS zur Geltung. Viele Koeffizienten wurden mehrfach verwendet, um Baugleichheit von Objektteilen wie Säulen, Kuppelsegmenten oder auch Spiegelsymmetrien zum Ausdruck zu bringen. Die zu verwendenden Parameter wurden auf Signifikanz getestet und entsprechend angepasst. Schließlich wurden mit Hilfe der robusten Fehlerschätzung schlechte Beobachtungen aus dem Block entfernt. An Hand der Ergebnisse der Varianzkomponentenschätzung waren noch die a priori Standardabweichungen der verschiedenen Beobachtungs-Genauigkeitsklassen anzupassen. An der endgültigen Ausgleichung nahmen ca. 12€000 Beobachtungen teil, aus denen rund 7000 Unbekannte geschätzt wurden. Nach der Definition der Topologie wurde nun das Modell ins Format VRML97 exportiert. Es zeigte sich, daß ein Farbabgleich der bei unterschiedlichen Witterungsverhältnissen getätigten Aufnahmen nötig war. Verschiedene dynamische Elemente wurden programmiert. So erscheint der Pavillon je nach Distanz zum virtuellen Betrachter in verschiedenen Auflösungen; ein animierter Rundgang kann gestartet und historische Information eingeblendet werden; auf verschiedenen Anzeigetafeln können Programmodule geschaltet, die Stellung des Betrachters im Raum angezeigt und ein kleines Tutorium gestartet werden. Weiters ist es möglich, Koordinaten und Strecken am Objekt zu messen. Alternativ dazu kann der Betrachter in die Qualität der Punktbestimmung Einsicht nehmen. Dies geschieht durch Visualisierung der photogrammetrischen und polaren Beobachtungsstrahlen im Raum, durch numerische wie graphische Ausgabe der Punktgenauigkeit in Form der Koordinatenstandardabweichungen bzw. des Fehlerellipsoids im Punkt und durch Anzeige der Anzahl der zur Bestimmung des Punktes verwendeten Beobachtungsgleichungen.
GIS based generation of topographic attributes for landform classification
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am Department of Geography and Anthropology, Louisiana State University, Baton Rouge, Louisiana, USA. Begutachter/Betreuer: Dr. Graciela Metternicht (Dept. of Spatial Sciences, Curtin University of Technology, Perth, Australia), Mag. phil. Dr. phil. Oswald Jochum (FH Technikum Kärnten)
Kurzfassung/Abstract
In dieser Diplomarbeit wird eine GIS Applikation zur halbautomatischen Klassifizierung von Landform-Elementen nach den Definitionen von Speight (1990) vorgestellt. Diese Forschungsarbeit ist Teil eines Precision Farming Projektes zur Definition von Land Management Unis (LMUs) auf Basis topographischer und bodenspezifischer Parameter. Die speziell für dieses Projekt neu implementierten GeoMedia Grid Funktionen wurden für die Berechnung topographischer Attribute wie Curvature oder Geländeneigung eingesetzt. Diese Attribute bilden die Eingangsparameter für die Klassifizierung der Landformelemente Crest, Simple Slope, Flat und Depression. Eine weitere Differenzierung der Simple Slope Zonen in Upper, Mid und Lower Slope erfolgt anhand der im Gelände berechneten Neigungswechsel. Die vorerst einzeln generierten Landform Layer werden überlagert und so zu einer einzigen Karte zusammengefasst. Die vorgeschlagene Methode wird in zwei Untersuchungsgebieten in West Australien und Oberösterreich getestet und zur Herstellung von Landformkarten eingesetzt. Die Klassifizierungsergebnisse werden im weiteren Projektverlauf für die Definition von LMUs zum Einsatz im Precision Farming verwendet.
In dieser Diplomarbeit wird eine GIS Applikation zur halbautomatischen Klassifizierung von Landform-Elementen nach den Definitionen von Speight (1990) vorgestellt. Diese Forschungsarbeit ist Teil eines Precision Farming Projektes zur Definition von Land Management Unis (LMUs) auf Basis topographischer und bodenspezifischer Parameter. Die speziell für dieses Projekt neu implementierten GeoMedia Grid Funktionen wurden für die Berechnung topographischer Attribute wie Curvature oder Geländeneigung eingesetzt. Diese Attribute bilden die Eingangsparameter für die Klassifizierung der Landformelemente Crest, Simple Slope, Flat und Depression. Eine weitere Differenzierung der Simple Slope Zonen in Upper, Mid und Lower Slope erfolgt anhand der im Gelände berechneten Neigungswechsel. Die vorerst einzeln generierten Landform Layer werden überlagert und so zu einer einzigen Karte zusammengefasst. Die vorgeschlagene Methode wird in zwei Untersuchungsgebieten in West Australien und Oberösterreich getestet und zur Herstellung von Landformkarten eingesetzt. Die Klassifizierungsergebnisse werden im weiteren Projektverlauf für die Definition von LMUs zum Einsatz im Precision Farming verwendet.
Internet-GIS für Kommunalanwender mit Scalable Vector Graphics (SVG)
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt bei Intergraph (Deutschland) GmbH, Ismaning, Deutschland. Begutachter/Betreuer: Mag. Dr. rer.nat. Gernot Paulus (FH Technikum Kärnten), Dr.-Ing. Jens Hartmann (Intergraph Deutschland GmbH)
Kurzfassung/Abstract
Die Diplomarbeit beschreibt die Entwicklung einer Internet-GIS-Lösung für Kommunalanwender unter Verwendung des neuen Vektorgrafikstandards Scalable Vector Graphics (SVG). Durch die Verlagerung der kommunalen Verwaltungsverfahren auf die digitale Ebene (eGovernment) und dem damit verbundenen Rationalisierungs- und Kostensenkungsdruck steigen auch die Anforderungen an web-basierte GIS-Lösungen. Es werden neben komplexen GIS-Analysen auch Funktionen zur Datenpflege (Erfassen und Editieren von Geodaten) gefordert und hohe Erwartungen an die kartografische Ausprägung der Karte gestellt. Auf Basis eines allgemein gültigen Anforderungskataloges, der in dieser Arbeit formuliert ist, wird der GeoMedia WebMap Publisher der Firma Intergraph zu einem Internet-GIS-Prototypen erweitert, der die Bedürfnisse des kommunalen Marktes abdeckt. Diplomarbeit ist bis 30.11.2005 gesperrt.
Die Diplomarbeit beschreibt die Entwicklung einer Internet-GIS-Lösung für Kommunalanwender unter Verwendung des neuen Vektorgrafikstandards Scalable Vector Graphics (SVG). Durch die Verlagerung der kommunalen Verwaltungsverfahren auf die digitale Ebene (eGovernment) und dem damit verbundenen Rationalisierungs- und Kostensenkungsdruck steigen auch die Anforderungen an web-basierte GIS-Lösungen. Es werden neben komplexen GIS-Analysen auch Funktionen zur Datenpflege (Erfassen und Editieren von Geodaten) gefordert und hohe Erwartungen an die kartografische Ausprägung der Karte gestellt. Auf Basis eines allgemein gültigen Anforderungskataloges, der in dieser Arbeit formuliert ist, wird der GeoMedia WebMap Publisher der Firma Intergraph zu einem Internet-GIS-Prototypen erweitert, der die Bedürfnisse des kommunalen Marktes abdeckt. Diplomarbeit ist bis 30.11.2005 gesperrt.
Untersuchung der Messsystemeigenschaften von Neigungssensoren
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2004. Betreuer: o.Univ.Prof. Dipl.-Ing. Dr. Friedrich K. Brunner
Kurzfassung/Abstract
In der Ingenieurgeodäsie gewinnt die Neigungsmessung immer mehr an Bedeutung, beispielsweise bei der Absteckung von Bauelementen wie Senkkästen oder bei der Bauwerksüberwachung. Am Markt sind verschiedenste Neigungssensoren erhältlich, welche sich in Funktionsprinzip, Messbereich, Auflösung und Preis unterscheiden. Dabei stellt sich für den Anwender immer wieder die Frage, welcher Sensor die jeweiligen Anforderungen eines Projektes erfüllt.In der vorliegenden Arbeit wurden 12 unterschiedliche Neigungssensoren hinsichtlich ihrer Eigenerwärmung, der Langzeitstabilität, der Nullpunktstabilität und ihres Verhaltens bei einem Temperatursprung untersucht. Dazu wurde zunächst unter kontrollierten klimatischen Verhältnissen eine Dauermessung (über 24 Stunden) durchgeführt. Bei diesem Versuch konnte die Eigenerwärmung und das Driftverhalten der Sensoren festgestellt werden. Anschließend wurde die Nullpunktstabilität bei einem Temperatursprung sowie das Verhalten der von den Sensoren ausgegebenen Neigungswerte bei einem Temperatursprung untersucht. Dabei wurden die Sensoren bei den Versuchen jeweils einer plötzlichen Temperaturänderung von Dt = +30^\circ\,C und von Dt = -20^\circ\,C ausgesetzt. Durch die durchgeführten Versuche konnte gezeigt werden, dass nur ein Teil der am Markt erhältlichen Neigungssensoren die in der Ingenieurgeodäsie gestellten Anforderungen erfüllt. Eine Abhängigkeit vom Messprinzip konnte nicht festgestellt werden.
In der Ingenieurgeodäsie gewinnt die Neigungsmessung immer mehr an Bedeutung, beispielsweise bei der Absteckung von Bauelementen wie Senkkästen oder bei der Bauwerksüberwachung. Am Markt sind verschiedenste Neigungssensoren erhältlich, welche sich in Funktionsprinzip, Messbereich, Auflösung und Preis unterscheiden. Dabei stellt sich für den Anwender immer wieder die Frage, welcher Sensor die jeweiligen Anforderungen eines Projektes erfüllt.In der vorliegenden Arbeit wurden 12 unterschiedliche Neigungssensoren hinsichtlich ihrer Eigenerwärmung, der Langzeitstabilität, der Nullpunktstabilität und ihres Verhaltens bei einem Temperatursprung untersucht. Dazu wurde zunächst unter kontrollierten klimatischen Verhältnissen eine Dauermessung (über 24 Stunden) durchgeführt. Bei diesem Versuch konnte die Eigenerwärmung und das Driftverhalten der Sensoren festgestellt werden. Anschließend wurde die Nullpunktstabilität bei einem Temperatursprung sowie das Verhalten der von den Sensoren ausgegebenen Neigungswerte bei einem Temperatursprung untersucht. Dabei wurden die Sensoren bei den Versuchen jeweils einer plötzlichen Temperaturänderung von Dt = +30^\circ\,C und von Dt = -20^\circ\,C ausgesetzt. Durch die durchgeführten Versuche konnte gezeigt werden, dass nur ein Teil der am Markt erhältlichen Neigungssensoren die in der Ingenieurgeodäsie gestellten Anforderungen erfüllt. Eine Abhängigkeit vom Messprinzip konnte nicht festgestellt werden.
GIS-gestützte dynamische 3D-Visualisierung von Planungsvarianten eines Hochwasserretentionsraumes am Oberrhein
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am WWF-Auen-Institut, Rastatt, Deutschland. Begutachter/Betreuer: Dr. Detlef-Günther Diringer (WWF – Auen -Institut), Mag. Dr. rer.nat. Gernot Paulus (FH Technikum Kärnten)
Kurzfassung/Abstract
Im Rahmen einer Umweltverträglichkeitsstudie stehen für ein geplantes Hochwasserschutzprojekt am Oberrhein unterschiedliche topographische und thematische Datengrundlagen zur Verfügung, die mit dem Geo-graphischen Informationssystem (GIS) TNTmips 6.8 von MicroImages Inc. aufbereitet, analysiert und dreidimensional (3D) visualisiert werden. Die Analysen umfassen eine Forstschadensklassifizierung und potenzielle Stechmückenbrutplätze im Retentionsraum. Die Ergebnisse dieser Arbeit sind statische und dynamische 3D-Visualisierungen von Abflussszenarien unterschiedlicher Planungsvarianten, die mit den vorliegenden Datensätzen und Analyseergebnissen kombiniert werden. Die dynamischen 3D-Darstellungen umfassen 3D-Animationen (Geländeüberflüge, Kameraschwenks) und Überflutungssimulationen.
Im Rahmen einer Umweltverträglichkeitsstudie stehen für ein geplantes Hochwasserschutzprojekt am Oberrhein unterschiedliche topographische und thematische Datengrundlagen zur Verfügung, die mit dem Geo-graphischen Informationssystem (GIS) TNTmips 6.8 von MicroImages Inc. aufbereitet, analysiert und dreidimensional (3D) visualisiert werden. Die Analysen umfassen eine Forstschadensklassifizierung und potenzielle Stechmückenbrutplätze im Retentionsraum. Die Ergebnisse dieser Arbeit sind statische und dynamische 3D-Visualisierungen von Abflussszenarien unterschiedlicher Planungsvarianten, die mit den vorliegenden Datensätzen und Analyseergebnissen kombiniert werden. Die dynamischen 3D-Darstellungen umfassen 3D-Animationen (Geländeüberflüge, Kameraschwenks) und Überflutungssimulationen.
Die Konzeptionierung und Implementierung einer Kanalapplikation für die Stadt Villach
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am Magistrat der Stadt Villach, Abteilung Vermessung und Geoinformation. Begutachter/Betreuer: Dipl.-Ing. Dr.techn Adrijana Car (FH Technikum Kärnten), Dipl.-Ing. Harald Frager (Magistrat der Stadt Villach)
Kurzfassung/Abstract
Betriebe bzw. Institutionen stellen fest, dass am bestehenden Markt die benötigte Software nicht zur Verfügung steht, zu umfangreich, zu minimalistisch oder zu teuer ist. Diese Angaben betreffen zum größten Teil Anwendungen, die sehr speziell zu einem Fachgebiet gehören, oder Anwendungen, die von jedem Anwender in einer anderen Form benötigt werden. Um aus diesen Umständen ein positives Resümee zu ziehen, können Anwendungen, speziell für weniger öffentlich bekannte Gebiete und auf bestimmte Anforderungen zugeschnitten, entwickelt werden. Einen Ansatz zum Entwickeln von Anwendungen nach bestimmten Vorstellungen und für spezielle Usergruppen, bietet die objektorientierte Softwareentwicklung (OOSE). Diese Theorie versteht es, unter Berücksichtigung der User, der Anforderungen und bestimmter Abläufe ein Konzept zu entwerfen, und dieses zu implementieren. In dieser Diplomarbeit wird das systematische Vorgehen der Analyse, der Konzeptionierung und der Implementierung einer Anwendung, anhand der Kanalapplikation der Stadt Villach in das Geoinformationssystem ESRI ArcGIS 8.3 betrachtet. Dieses Projekt ist in drei Hauptteile gegliedert: die Analyse bestimmter Anforderungen und bestehender Systeme, die Konzeptionierung einzelner Anwendungen und die Implementierung der Gesamtanwendung. Die Analysephase beinhaltet zwei grobe Themenbereiche: die Erfassung und Strukturierung von Useranforderungen sowie die Recherche von Konzepten, die in bereits bestehenden Systemen verwendet werden. Die Designphase basiert auf der Analysephase und produziert Konzepte, die den vorgesehenen Anwendungen entsprechen. In der Implementierungsphase werden die erzeugten Konzepte in die Realität umgesetzt. Die resultierende Applikation ist auf Grund der Realisierung der Anforderungen, den Wünschen der User angepasst und vom Funktionsrahmen bzw. der Aktualität am Stand bestehender Systeme. Die Analyse der Useranforderungen ergibt folgende Kernaufgaben der Kanalverwaltung: Kanäle neu zu erzeugen bzw. zu bearbeiten, ASCII Punktdateien einzulesen und einen Längenschnitt eines Kanalstranges zu generieren. Damit ist es dem Benutzer erlaubt, mit dem Geoinformationssystem zu interagieren, um die für ihn nützlichen Analysen und Aktualisierungen am effektivsten durchzuführen.
Betriebe bzw. Institutionen stellen fest, dass am bestehenden Markt die benötigte Software nicht zur Verfügung steht, zu umfangreich, zu minimalistisch oder zu teuer ist. Diese Angaben betreffen zum größten Teil Anwendungen, die sehr speziell zu einem Fachgebiet gehören, oder Anwendungen, die von jedem Anwender in einer anderen Form benötigt werden. Um aus diesen Umständen ein positives Resümee zu ziehen, können Anwendungen, speziell für weniger öffentlich bekannte Gebiete und auf bestimmte Anforderungen zugeschnitten, entwickelt werden. Einen Ansatz zum Entwickeln von Anwendungen nach bestimmten Vorstellungen und für spezielle Usergruppen, bietet die objektorientierte Softwareentwicklung (OOSE). Diese Theorie versteht es, unter Berücksichtigung der User, der Anforderungen und bestimmter Abläufe ein Konzept zu entwerfen, und dieses zu implementieren. In dieser Diplomarbeit wird das systematische Vorgehen der Analyse, der Konzeptionierung und der Implementierung einer Anwendung, anhand der Kanalapplikation der Stadt Villach in das Geoinformationssystem ESRI ArcGIS 8.3 betrachtet. Dieses Projekt ist in drei Hauptteile gegliedert: die Analyse bestimmter Anforderungen und bestehender Systeme, die Konzeptionierung einzelner Anwendungen und die Implementierung der Gesamtanwendung. Die Analysephase beinhaltet zwei grobe Themenbereiche: die Erfassung und Strukturierung von Useranforderungen sowie die Recherche von Konzepten, die in bereits bestehenden Systemen verwendet werden. Die Designphase basiert auf der Analysephase und produziert Konzepte, die den vorgesehenen Anwendungen entsprechen. In der Implementierungsphase werden die erzeugten Konzepte in die Realität umgesetzt. Die resultierende Applikation ist auf Grund der Realisierung der Anforderungen, den Wünschen der User angepasst und vom Funktionsrahmen bzw. der Aktualität am Stand bestehender Systeme. Die Analyse der Useranforderungen ergibt folgende Kernaufgaben der Kanalverwaltung: Kanäle neu zu erzeugen bzw. zu bearbeiten, ASCII Punktdateien einzulesen und einen Längenschnitt eines Kanalstranges zu generieren. Damit ist es dem Benutzer erlaubt, mit dem Geoinformationssystem zu interagieren, um die für ihn nützlichen Analysen und Aktualisierungen am effektivsten durchzuführen.
Effizienzsteigerung des Sicherheitsmanagements am Spielraum durch den Einsatz von GIS
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am FH Technikum Kärnten und in Kooperation mit dem Magistrat der Stadt Klagenfurt. Begutachter/Betreuer: Mag. Dr. rer.nat. Gernot Paulus und Dr. Christian Menard (beide FH Technikum Kärnten)
Kurzfassung/Abstract
Laut einer Studie des Vereins Sicher Leben aus dem Jahr 2003 werden in Österreichs Krankenhäusern jährlich rund 9000 Kinder aufgrund der Verletzungen, die sie sich am Spielraum zugezogen haben, behandelt. Die meisten dieser Unfälle passieren zwar aus dem Spiel der Kinder heraus, ein erheblicher Prozentsatz der Unfälle geschieht aber aufgrund von baulichen Mängeln auf den Spielplätzen. Um Kindern ein sicheres Umfeld auf dem Spielplatz zu bieten und um Beweise für eine regelmäßige Kontrolltätigkeit bei Haftungsfragen vorlegen zu können, sind Spielplatzbetreiber rechtlich angehalten, ein Sicherheitsmanagement am Spielraum durchzuführen. Gemeinsam mit dem Magistrat der Landeshauptstadt Klagenfurt wurde ein GIS-gestützter Spielplatzkataster als Grundlage für ein mobiles Sicherheitsmanagement am Spielraum erstellt. Nach einer umfassenden Prozessanalyse der Kontrolltätigkeit wurde ein Workflow für die mobile Spielplatzkontrolle entwickelt und implementiert. Mit dieser für den Spielplatzbetreiber maßgeschneiderten Lösung wird das Konzept eines GIS-gestützten mobilen Sicherheitsmanagements am Spielraum effizient umgesetzt und alle Kontrollprozesse entsprechend erfasst und transparent dokumentiert.
Laut einer Studie des Vereins Sicher Leben aus dem Jahr 2003 werden in Österreichs Krankenhäusern jährlich rund 9000 Kinder aufgrund der Verletzungen, die sie sich am Spielraum zugezogen haben, behandelt. Die meisten dieser Unfälle passieren zwar aus dem Spiel der Kinder heraus, ein erheblicher Prozentsatz der Unfälle geschieht aber aufgrund von baulichen Mängeln auf den Spielplätzen. Um Kindern ein sicheres Umfeld auf dem Spielplatz zu bieten und um Beweise für eine regelmäßige Kontrolltätigkeit bei Haftungsfragen vorlegen zu können, sind Spielplatzbetreiber rechtlich angehalten, ein Sicherheitsmanagement am Spielraum durchzuführen. Gemeinsam mit dem Magistrat der Landeshauptstadt Klagenfurt wurde ein GIS-gestützter Spielplatzkataster als Grundlage für ein mobiles Sicherheitsmanagement am Spielraum erstellt. Nach einer umfassenden Prozessanalyse der Kontrolltätigkeit wurde ein Workflow für die mobile Spielplatzkontrolle entwickelt und implementiert. Mit dieser für den Spielplatzbetreiber maßgeschneiderten Lösung wird das Konzept eines GIS-gestützten mobilen Sicherheitsmanagements am Spielraum effizient umgesetzt und alle Kontrollprozesse entsprechend erfasst und transparent dokumentiert.
Positionierung mit Hilfe von zellularen Netzwerken
Institut für Navigation und Satellitengeodäsie. TU-Graz 2004. Betreuer: Univ.-Prof. Dr. Bernhard Hofmann-Wellenhof und Dr. Klaus Legat.
Kurzfassung/Abstract
Diese Diplomarbeit befasst sich mit der Positionsbestimmung mit Hilfe von zellularen Netzwerken. Dabei wird zunächst ein Überblick über den aktuellen Stand der Technik gegeben und es werden Vergleiche mit anderen Navigationssystemen gezogen. In weiterer Folge werden die theoretischen Grundlagen der Arbeit diskutiert. In diesem Zusammenhang werden Verfahren zur Positionsbestimmung in zellularen Netzwerken sowie der Aufbau und die Signalstruktur von modernen Mobilkommunikationssystemen (GSM, UMTS) erläutert. Der Schwerpunkt der Arbeit liegt jedoch in der Untersuchung der geometrischen Genauigkeit der Positionsbestimmung mit zellularen Netzwerken unter Berücksichtigung von signifikanten Fehlereinflüssen. Das zu diesem Zweck entwickelte Simulationsprogramm wird in einem weiteren Abschnitt vorgestellt und die damit durchgeführten Berechnungsschritte erörtert. Die Ergebnisse aus den Simulationen für ein Testgebiet in Graz werden dargestellt und erläutert. Ein weiterer, abschließender Teil dieser Arbeit zeigt die Visualisierung der Endergebnisse in eigens erstellten thematischen Karten. Die Interpretation der Berechnungsergebnisse zeigt, dass zellulare Netze speziell in urbanen Gebieten die Anforderungen an Positionierungssysteme erfüllen; dies gilt insbesondere für UMTS-Netzwerke - allerdings nur für unkritische Anwendungen. Zur Erreichung hoher Genauigkeiten außerhalb dieser Bereiche erscheint dagegen eine Integration mit satellitengestützten Navigationssystemen sinnvoll.
Diese Diplomarbeit befasst sich mit der Positionsbestimmung mit Hilfe von zellularen Netzwerken. Dabei wird zunächst ein Überblick über den aktuellen Stand der Technik gegeben und es werden Vergleiche mit anderen Navigationssystemen gezogen. In weiterer Folge werden die theoretischen Grundlagen der Arbeit diskutiert. In diesem Zusammenhang werden Verfahren zur Positionsbestimmung in zellularen Netzwerken sowie der Aufbau und die Signalstruktur von modernen Mobilkommunikationssystemen (GSM, UMTS) erläutert. Der Schwerpunkt der Arbeit liegt jedoch in der Untersuchung der geometrischen Genauigkeit der Positionsbestimmung mit zellularen Netzwerken unter Berücksichtigung von signifikanten Fehlereinflüssen. Das zu diesem Zweck entwickelte Simulationsprogramm wird in einem weiteren Abschnitt vorgestellt und die damit durchgeführten Berechnungsschritte erörtert. Die Ergebnisse aus den Simulationen für ein Testgebiet in Graz werden dargestellt und erläutert. Ein weiterer, abschließender Teil dieser Arbeit zeigt die Visualisierung der Endergebnisse in eigens erstellten thematischen Karten. Die Interpretation der Berechnungsergebnisse zeigt, dass zellulare Netze speziell in urbanen Gebieten die Anforderungen an Positionierungssysteme erfüllen; dies gilt insbesondere für UMTS-Netzwerke - allerdings nur für unkritische Anwendungen. Zur Erreichung hoher Genauigkeiten außerhalb dieser Bereiche erscheint dagegen eine Integration mit satellitengestützten Navigationssystemen sinnvoll.
Ein GIS als Schnittstelle zwischen internen und externen Geomarketingmodulen und Geosoftwareprodukten
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt bei WigeoGIS GmbH, Wien. Begutachter/Betreuer: Dipl.-Ing. Dr.techn. Adrijana Car (FH Technikum Kärnten), Mag. Zoltan Daroczi (WigeoGIS GmbH)
Kurzfassung/Abstract
Immer mehr Unternehmen nutzen die Chance, durch den Einsatz von Geomarketing mehr über ihre Kunden und deren räumliche Verteilung zu erfahren. Die hohen Anschaffungskosten für Hardware, Geomarketing– Software und Geodaten schrecken jedoch viele kleine und mittlere Unternehmen ab, in ihrem Betrieb Geomarketing einzusetzen. Diese Diplomarbeit beschäftigt sich mit einer Möglichkeit, Geomarketing kostengünstig und damit für einen breiteren Anwenderkreis zugänglich zu machen. Die Kernidee ist, Teile der Geomarketing-Software und der Geodaten bei einem Application Service Provider (ASP) zu mieten, anstatt diese zu kaufen. Der ASP stellt die Dienste zentral zur Verfügung und die Kunden greifen via Internet darauf zu. Der Kunde mietet lediglich den ASP – Zugang und profitiert gleichzeitig vom Know – how des ASP. Bei ASP-Leistungen der Firma WIGeoGIS steht mit der Software ArcGIS von ESRI ein leistungsfähiges Kernstück im Zentrum der Lösungen. Von ArcGIS ausgehend werden immer mehr Schnittstellen zu Geomarketing – Komponenten entwickelt. Im Zuge dieser Diplomarbeit wurde eine Schnittstelle zu einem Geodatenserver entwickelt. Es handelt sich dabei um den Mapserver der University of Minnesota (UMN) auf dem das Produkt WIGeoMaps, georeferenzierte Hintergrundkarten und Stadtpläne im Rasterformat, abgespeichert sind. Der Geomarketing – Kunde kann über das Internet mit ArcGIS auf die Karten zugreifen, ohne sie lokal gespeichert zu haben und erspart sich so einen Großteil der Anschaffungskosten. Die Arbeit beleuchtet die Umsetzung dieser Schnittstelle sowie die Vor – und Nachteile von ASP – Lösungen im Geomarketing.
Immer mehr Unternehmen nutzen die Chance, durch den Einsatz von Geomarketing mehr über ihre Kunden und deren räumliche Verteilung zu erfahren. Die hohen Anschaffungskosten für Hardware, Geomarketing– Software und Geodaten schrecken jedoch viele kleine und mittlere Unternehmen ab, in ihrem Betrieb Geomarketing einzusetzen. Diese Diplomarbeit beschäftigt sich mit einer Möglichkeit, Geomarketing kostengünstig und damit für einen breiteren Anwenderkreis zugänglich zu machen. Die Kernidee ist, Teile der Geomarketing-Software und der Geodaten bei einem Application Service Provider (ASP) zu mieten, anstatt diese zu kaufen. Der ASP stellt die Dienste zentral zur Verfügung und die Kunden greifen via Internet darauf zu. Der Kunde mietet lediglich den ASP – Zugang und profitiert gleichzeitig vom Know – how des ASP. Bei ASP-Leistungen der Firma WIGeoGIS steht mit der Software ArcGIS von ESRI ein leistungsfähiges Kernstück im Zentrum der Lösungen. Von ArcGIS ausgehend werden immer mehr Schnittstellen zu Geomarketing – Komponenten entwickelt. Im Zuge dieser Diplomarbeit wurde eine Schnittstelle zu einem Geodatenserver entwickelt. Es handelt sich dabei um den Mapserver der University of Minnesota (UMN) auf dem das Produkt WIGeoMaps, georeferenzierte Hintergrundkarten und Stadtpläne im Rasterformat, abgespeichert sind. Der Geomarketing – Kunde kann über das Internet mit ArcGIS auf die Karten zugreifen, ohne sie lokal gespeichert zu haben und erspart sich so einen Großteil der Anschaffungskosten. Die Arbeit beleuchtet die Umsetzung dieser Schnittstelle sowie die Vor – und Nachteile von ASP – Lösungen im Geomarketing.
Evaluation of new classification methods for x- and p-band SAR images
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am Orbisat da Amazonia SA, Remote Sensing Division, Campinas, SP, Brasil. Begutachter/Betreuer: Dipl.-Ing. Dieter Lübeck (Orbisat), Mag. Dr. rer.nat. Gernot Paulus (FH Technikum Kärnten)
Kurzfassung/Abstract
Das Ziel dieser Diplomarbeit ist die Evaluierung neuer Klassifizierungsmethoden anhand SAR Bilder des Sensors OrbiSAR-I. Im Mittelpunkt dieser Arbeit stehen die Validierung und Evaluierung der Klassifikationsergebnisse. Die Daten, die dieser Diplomarbeit zugrunde liegen, sind von dem Radarsensor OrbiSAR-I, der x- und p-Band Daten simultan aufnimmt. Die Bilder wurden im Zuge des Projektes "Cartosur II" in Venezuela aufgenommen. Das Testgebiet liegt in Zentralvenezuela am Guri Reservoir. Die Bilder haben eine Auflösung von 5m. Neben x- und p-Band Bildern stehen ein Kohärenzbild, ein digitales Höhen- und ein digitales Oberflächenmodell zur Verfügung. Die Klassifizierungen werden in ENVI/IDL und eCognition Professional 3.0 getestet. Zwei Klassifizierungsmethoden wurden im National Institute for Space Research (INPE) in Brasilien entwickelt, wobei eine Methode mit Objekten und deren Textur arbeitet, und die andere eine zuvor durchgeführte pixel-basierte Klassifizierung verbessert. Alle Segmentierungen für die objekt-basierten Klassifizierungen werden in eCognition ausgeführt. Weiters werden alle Klassifizierungsmöglichkeiten, die eCognition anbietet, getestet. Die Bewertung der Genauigkeit der Klassifikationsergebnisse basiert auf Fehlermatrizen und den korrespondierenden Genauigkeitswerten, wie \kappa-Index und Gesamtgenauigkeit. Alle Fehlermatrizen werden mit denselben Trainingsgebieten erstellt, was einen Vergleich der Matrizen ermöglicht. Wie erwartet, haben die Klassifizierungsmethoden, welche auf Objekten basieren, bessere Genauigkeitswerte als die pixel-basierten Klassifizierungsergebnisse. Vor allem die Ergebnisse der Klassifizierungen in eCognition Professional 3.0 sind erfolgversprechend. Die auf Textur basierte Klassifizierungsmethode von INPE hat ebenfalls gute Ergebnisse erzielt, wie die Genauigkeits-Analysen beweisen. Die Ergebnisse der pixel-basierten Klassifizierungsmethoden sind genau, wie die Ergebnisse der Fehlermatrizen zeigen, wobei die Klassifizierungen für den Betrachter pixelig erscheinen und eine visuelle Interpretation erschwert wird. Der Grund dafür ist der Speckle, der typisch für SAR Bilder ist und nie komplett entfernt werden kann, wenn eine pixel-basierte Klassifizierung durchgeführt wird. Das beste Klassifizierungsergebnis einer pixel-basierten Klassifizierung hat eine Gesamtgenauigkeit von 90%. Die Ergebnisse dieser Arbeit zeigen, dass objekt-basierte Klassifizierungsmethoden bessere Resultate für die SAR Bilder des Sensors OrbiSAR-I liefern als pixel-basierte Methoden. Insbesondere ist die Software eCognition Professional 3.0 ein gutes Werkzeug um eine Klassifizierung basierend auf Objekten durchzuführen. Im Gegensatz zur Textur basierten Klassifizierungsmethode von INPE, können in eCognition Segmentierungen und Klassifizierungen durchgeführt werden. Alle berechneten Gesamtgenauigkeiten für die objekt-basierten Klassifizierungen belaufen sich über 90%, wobei eine Methode sogar eine Gesamtgenauigkeit von 100% erreicht hat.
Das Ziel dieser Diplomarbeit ist die Evaluierung neuer Klassifizierungsmethoden anhand SAR Bilder des Sensors OrbiSAR-I. Im Mittelpunkt dieser Arbeit stehen die Validierung und Evaluierung der Klassifikationsergebnisse. Die Daten, die dieser Diplomarbeit zugrunde liegen, sind von dem Radarsensor OrbiSAR-I, der x- und p-Band Daten simultan aufnimmt. Die Bilder wurden im Zuge des Projektes "Cartosur II" in Venezuela aufgenommen. Das Testgebiet liegt in Zentralvenezuela am Guri Reservoir. Die Bilder haben eine Auflösung von 5m. Neben x- und p-Band Bildern stehen ein Kohärenzbild, ein digitales Höhen- und ein digitales Oberflächenmodell zur Verfügung. Die Klassifizierungen werden in ENVI/IDL und eCognition Professional 3.0 getestet. Zwei Klassifizierungsmethoden wurden im National Institute for Space Research (INPE) in Brasilien entwickelt, wobei eine Methode mit Objekten und deren Textur arbeitet, und die andere eine zuvor durchgeführte pixel-basierte Klassifizierung verbessert. Alle Segmentierungen für die objekt-basierten Klassifizierungen werden in eCognition ausgeführt. Weiters werden alle Klassifizierungsmöglichkeiten, die eCognition anbietet, getestet. Die Bewertung der Genauigkeit der Klassifikationsergebnisse basiert auf Fehlermatrizen und den korrespondierenden Genauigkeitswerten, wie \kappa-Index und Gesamtgenauigkeit. Alle Fehlermatrizen werden mit denselben Trainingsgebieten erstellt, was einen Vergleich der Matrizen ermöglicht. Wie erwartet, haben die Klassifizierungsmethoden, welche auf Objekten basieren, bessere Genauigkeitswerte als die pixel-basierten Klassifizierungsergebnisse. Vor allem die Ergebnisse der Klassifizierungen in eCognition Professional 3.0 sind erfolgversprechend. Die auf Textur basierte Klassifizierungsmethode von INPE hat ebenfalls gute Ergebnisse erzielt, wie die Genauigkeits-Analysen beweisen. Die Ergebnisse der pixel-basierten Klassifizierungsmethoden sind genau, wie die Ergebnisse der Fehlermatrizen zeigen, wobei die Klassifizierungen für den Betrachter pixelig erscheinen und eine visuelle Interpretation erschwert wird. Der Grund dafür ist der Speckle, der typisch für SAR Bilder ist und nie komplett entfernt werden kann, wenn eine pixel-basierte Klassifizierung durchgeführt wird. Das beste Klassifizierungsergebnis einer pixel-basierten Klassifizierung hat eine Gesamtgenauigkeit von 90%. Die Ergebnisse dieser Arbeit zeigen, dass objekt-basierte Klassifizierungsmethoden bessere Resultate für die SAR Bilder des Sensors OrbiSAR-I liefern als pixel-basierte Methoden. Insbesondere ist die Software eCognition Professional 3.0 ein gutes Werkzeug um eine Klassifizierung basierend auf Objekten durchzuführen. Im Gegensatz zur Textur basierten Klassifizierungsmethode von INPE, können in eCognition Segmentierungen und Klassifizierungen durchgeführt werden. Alle berechneten Gesamtgenauigkeiten für die objekt-basierten Klassifizierungen belaufen sich über 90%, wobei eine Methode sogar eine Gesamtgenauigkeit von 100% erreicht hat.
GIS-gestützte Planung von Forststrassennetzwerken
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am Studiengang Geoinformation der FH Technikum Kärnten in Kooperation mit der Österreichischen Bundesforste AG, Wien. Begutachter/Betreuer: Dipl.-Ing. Dr. Gerald Gruber (FH Technikum Kärnten), Dipl.-Ing. Peter Fürst (Österreichische Bundesforste AG)
Kurzfassung/Abstract
Ziel dieser Diplomarbeit ist, einen Beitrag zur Verkürzung der derzeit üblichen Planungstätigkeit im forstlichen Straßenbau zu leisten. Um eine Straße im Wald zu bauen, wird nach heutigem Stand der Technik das Gelände, welches erschlossen werden soll, einige Male zu Fuß erkundet. Im Anschluss daran wird versucht, eine Trassenvariante möglichst objektiv festzulegen und diese Variante in eine Karte einzutragen. Obwohl genügend Geodaten zur Verfügung stehen, um die Planung von Forststraßen zu unterstützen, werden Geographische Informationssysteme bis dato nur eingeschränkt eingesetzt. Diese Diplomarbeit bringt drei Wissenschaftsgebiete zusammen, Forstwissenschaft, Geoinformation und Operations Research. Die zukünftige Perspektive ist, dass die Methoden dieser Wissenschaftsgebiete eingesetzt werden, um ein Spatial Decision Support System für die Planung von Forststrassennetzwerken zu entwickeln. Der Prozess der Planung von Forststraßen basiert auf Rasterdaten. Die Analyse von Geodaten liefert eine Menge von Parametern auf den einzelnen Zellen, die wesentlichen Einfluss auf die Planung der Straßen haben. Die Modellierung der zu untersuchenden Fragestellung führt auf ein graphentheoretisches Problem. Ziel von zukünftigen Untersuchungen ist es, dieses Problem mit Methoden des Operations Research zu lösen. Der Vorteil eines Spatial Decision Support Systems für die Forststraßenplanung liegt darin, dass mehrere Alternativen erstellt werden können. Außerdem können mit Spatial Decision Support Systemen Forststraßenexperten bei der Planung unterstützt werden, um fundierte und nachvollziehbare Entscheidungen zu treffen.
Ziel dieser Diplomarbeit ist, einen Beitrag zur Verkürzung der derzeit üblichen Planungstätigkeit im forstlichen Straßenbau zu leisten. Um eine Straße im Wald zu bauen, wird nach heutigem Stand der Technik das Gelände, welches erschlossen werden soll, einige Male zu Fuß erkundet. Im Anschluss daran wird versucht, eine Trassenvariante möglichst objektiv festzulegen und diese Variante in eine Karte einzutragen. Obwohl genügend Geodaten zur Verfügung stehen, um die Planung von Forststraßen zu unterstützen, werden Geographische Informationssysteme bis dato nur eingeschränkt eingesetzt. Diese Diplomarbeit bringt drei Wissenschaftsgebiete zusammen, Forstwissenschaft, Geoinformation und Operations Research. Die zukünftige Perspektive ist, dass die Methoden dieser Wissenschaftsgebiete eingesetzt werden, um ein Spatial Decision Support System für die Planung von Forststrassennetzwerken zu entwickeln. Der Prozess der Planung von Forststraßen basiert auf Rasterdaten. Die Analyse von Geodaten liefert eine Menge von Parametern auf den einzelnen Zellen, die wesentlichen Einfluss auf die Planung der Straßen haben. Die Modellierung der zu untersuchenden Fragestellung führt auf ein graphentheoretisches Problem. Ziel von zukünftigen Untersuchungen ist es, dieses Problem mit Methoden des Operations Research zu lösen. Der Vorteil eines Spatial Decision Support Systems für die Forststraßenplanung liegt darin, dass mehrere Alternativen erstellt werden können. Außerdem können mit Spatial Decision Support Systemen Forststraßenexperten bei der Planung unterstützt werden, um fundierte und nachvollziehbare Entscheidungen zu treffen.
Verknüpfung korrespondierender Kartenelemente im Hinblick auf automatisierte Fortführung
Institut für Geoinformation und Kartographie, Technische Universität Wien, 2004. Begutachter: Ao.Univ.Prof. Mag. Dr. Georg Gartner, Betreuer: Ao.Univ.Prof. Mag. Dr. Georg Gartner, Ass.Prof. Dipl.-Ing. Dr.techn. Mirjanka Lechthaler
Kurzfassung/Abstract
Durch den Einsatz digitaler Technologien ist es möglich geworden, unterschiedlichste Repräsentationen der Realität kombiniert darzustellen. Allerdings kommt es dabei aufgrund von Inkonsistenzen, Redundanzen und graphischen Konflikten oft zu unerwünschten Ergebnissen. Die Lösung dieses Problems liegt in der Integration in einem kollektiven System – einer so genannten Multi-Resolution/Representation-Database. Voraussetzung dafür ist die Untersuchung der Zusammenhänge zwischen einzelnen Repräsentationen. Ziel dieser Diplomarbeit ist die Beantwortung der Frage, ob es möglich ist, die Verknüpfung korrespondierender Kartenelemente zu modellieren und dadurch einen ersten Schritt in Richtung automatisierter Fortführung zu setzen. Dazu wurden bestehende Matchingalgorithmen untersucht und auf den daraus gewonnenen Erkenntnissen ein eigener Algorithmus zur Verknüpfung von Elementen der Objektklasse Bebauung entwickelt. Motivation ist der Nutzen von Verknüpfungen für die automatisierte Fortführung, welcher der Arbeit eine klare Perspektive gibt.
Durch den Einsatz digitaler Technologien ist es möglich geworden, unterschiedlichste Repräsentationen der Realität kombiniert darzustellen. Allerdings kommt es dabei aufgrund von Inkonsistenzen, Redundanzen und graphischen Konflikten oft zu unerwünschten Ergebnissen. Die Lösung dieses Problems liegt in der Integration in einem kollektiven System – einer so genannten Multi-Resolution/Representation-Database. Voraussetzung dafür ist die Untersuchung der Zusammenhänge zwischen einzelnen Repräsentationen. Ziel dieser Diplomarbeit ist die Beantwortung der Frage, ob es möglich ist, die Verknüpfung korrespondierender Kartenelemente zu modellieren und dadurch einen ersten Schritt in Richtung automatisierter Fortführung zu setzen. Dazu wurden bestehende Matchingalgorithmen untersucht und auf den daraus gewonnenen Erkenntnissen ein eigener Algorithmus zur Verknüpfung von Elementen der Objektklasse Bebauung entwickelt. Motivation ist der Nutzen von Verknüpfungen für die automatisierte Fortführung, welcher der Arbeit eine klare Perspektive gibt.
Entwurf eines Geodatenportals zur Vermarktung von Geodaten am Beispiel der Landeshauptstadt Klagenfurt
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt am Magistrat der Stadt Klagenfurt, Abt. Vermessung und Geoinformation. Begutachter/Betreuer: Dipl.-Ing. Dr.techn. Adrijana Car (FH Technikum Kärnten), Dipl.-Ing. Günter Koren (Magistrat der Stadt Klagenfurt)
Kurzfassung/Abstract
Diese Diplomarbeit beschreibt die Geodateninfrastruktur (GDI) der Landeshauptstadt (LHS) Klagenfurt, die Entwicklung und Implementierung einer Metadatenbank (MDB) nach dem Standard 19115 der International Organisation for Standardisation (ISO) und die aktuellen Entwicklungen der österreichischen Geodatenpolitik aus der Sicht der Stadt Klagenfurt. Ziel ist es, die Vermarktung von Geodaten der LHS Klagenfurt zu verbessern und durch den Aufbau einer GDI den Markt für Geoinformationen zu stimulieren und zu aktivieren. Die Ausarbeitung der Verbesserungspotentiale von der bestehenden GDI erfolgte anhand der Usability Engineering Methode heuristische Evaluation. Das bestehende Geodatenportal der LHS Klagenfurt und die Geodatenportale der Städte Aalen, Bern und Wien werden anhand den Usability Kriterien analysiert. Die aus der Analyse resultierenden Verbesserungspotentiale werden in das Konzept zur Neugestaltung der Einstiegsseite des Geodatenportals und des Geodatenportals selbst, miteinbezogen. Um die Datenorganisation weiterhin im Griff zu haben, werden Metadaten erstellt die Auskunft über die am Magistrat der LHS Klagenfurt vorhandenen Geodaten geben. Ziel der Arbeit ist es, ein Metadatenmodell zu erstellen und dieses in einer Datenbank umzusetzen. Die Ausarbeitung der Kriterien zur Auswahl der Metadatenelemente erfolgt nach einer Analyse der vorhandenen Datensätze in der Abt. VM & GI. Der Inhalt muss standardisierten Qualitätsmerkmalen entsprechen, welche in der Abt. VM & GI unter Anwendung der Norm ISO 19115 definiert wurden.
Diese Diplomarbeit beschreibt die Geodateninfrastruktur (GDI) der Landeshauptstadt (LHS) Klagenfurt, die Entwicklung und Implementierung einer Metadatenbank (MDB) nach dem Standard 19115 der International Organisation for Standardisation (ISO) und die aktuellen Entwicklungen der österreichischen Geodatenpolitik aus der Sicht der Stadt Klagenfurt. Ziel ist es, die Vermarktung von Geodaten der LHS Klagenfurt zu verbessern und durch den Aufbau einer GDI den Markt für Geoinformationen zu stimulieren und zu aktivieren. Die Ausarbeitung der Verbesserungspotentiale von der bestehenden GDI erfolgte anhand der Usability Engineering Methode heuristische Evaluation. Das bestehende Geodatenportal der LHS Klagenfurt und die Geodatenportale der Städte Aalen, Bern und Wien werden anhand den Usability Kriterien analysiert. Die aus der Analyse resultierenden Verbesserungspotentiale werden in das Konzept zur Neugestaltung der Einstiegsseite des Geodatenportals und des Geodatenportals selbst, miteinbezogen. Um die Datenorganisation weiterhin im Griff zu haben, werden Metadaten erstellt die Auskunft über die am Magistrat der LHS Klagenfurt vorhandenen Geodaten geben. Ziel der Arbeit ist es, ein Metadatenmodell zu erstellen und dieses in einer Datenbank umzusetzen. Die Ausarbeitung der Kriterien zur Auswahl der Metadatenelemente erfolgt nach einer Analyse der vorhandenen Datensätze in der Abt. VM & GI. Der Inhalt muss standardisierten Qualitätsmerkmalen entsprechen, welche in der Abt. VM & GI unter Anwendung der Norm ISO 19115 definiert wurden.
Handbuch zum WebGIS für Kommunen
Studiengang Geoinformation, Fachhochschule Technikum Kärnten, 2004. Durchgeführt bei traffic information and management GmbH, Rodgau, Deutschland. Begutachter/Betreuer: Dipl.-Ing. Dr.techn. Adrijana Car (FH Technikum Kärnten), Dr. Hermann Grünfeld (traffic information and management GmbH)
Kurzfassung/Abstract
Anhand der Demonstrationen von KomuWeb Demoprojekt Hausen ist gezeigt, dass open-source Web Services Softwarebestandteile eines WebGIS sein können. Diese Diplomarbeit untersucht die Möglichkeit, ein Handbuch als Ergänzung zu den Demonstrationen von KomuWeb Demoprojekt Hausen zu erstellen. Das Handbuch informiert kommunale Entscheidungsträger im Allgemeinen über die WebServices, Web Map Service (WMS) sowie Web Feature Service (WFS), und WebGIS, und spezifisch über KomuWeb WebGIS. Letzteres ist eine Dienstleistung der Firma traffic information and mangement GmbH (tim GmbH), und kann von jeder Kommune unabhängig von anderen GIS (geografischen Informationssystemen) eingesetzt werden. Das Zielpublikum dieser Diplomarbeit sind Personen mit GIS-Basiskenntnissen, die an der Entwicklung eines Handbuches interessiert sind. Die Methode der Handbuch-Entwicklung besteht aus folgenden Punkten: Vorgaben und Anregungen des Auftraggebers – v.a. mögliche Kapitel für das Handbuch Die vom Auftraggeber (tim GmbH) vorgeschlagenen, möglichen Handbuchkapitel werden thematisch den von der Autorin festgelegten Themengebieten für das Handbuch zugeordnet. Literaturquellen zu verschiedenen Sachgebieten Zu den Themengebieten werden anhand der zugeordneten Handbuchkapitel Literaturquellen gesucht, mit welchen Informationen über den Inhalt des Handbuches generiert werden können. Teilweise sind bereits Literaturquellen generiert, da auch für den Lösungsansatz des technischen KomuWeb-Entwurfes Literatur herangezogen wurde. Lösungsansatz des technischen KomuWeb-Entwurfes Der Lösungsansatz des technischen KomuWeb-Entwurfes beinhaltet Informationen zu Konzept, Methode und Werkzeugen, mit Fokus auf WMS und WFS. Aufbauend auf dem Lösungsansatz des technischen KomuWeb-Entwurfes wurde die Projektrealisierung des WebGIS KomuWeb durchgeführt, die im KomuWeb-Projektrahmen erläutert ist. KomuWeb-Projektrahmen und Erfahrungen der Autorin während der Projektdurchführung. Der KomuWeb-Projektrahmen informiert über alle Softwarekomponenten, die für die Implementierung von KomuWeb Demoprojekt Hausen herangezogen wurden, wie z.B. über die Datenbank PostgreSQL. Anhand der während der Projektdurchführung erworbenen Erfahrungen der Autorin können weitere Informationen für das Handbuch generiert werden, wie z.B. die Parameterangaben einer WMS-Anfrage. Um von der Methode zur Implementierung zu gelangen, werden je Themengebiet die aus den vier Punkten generierten Informationen zusammengefasst. Während der Anwendung der Methode je Themengebiet ist erkennbar, dass für ein Themengebiet ein zusätzlicher Punkt in die Methode miteinzubeziehen ist. Die endgültigen Kapitelnamen werden nach der Implementierung der Themengebiete festgelegt. Die Effizienz der angewandten Methode für dieses Handbuch und Richtlinien zur Erstellung anderer Handbücher anhand dieser Methode werden aufgezeigt.
Anhand der Demonstrationen von KomuWeb Demoprojekt Hausen ist gezeigt, dass open-source Web Services Softwarebestandteile eines WebGIS sein können. Diese Diplomarbeit untersucht die Möglichkeit, ein Handbuch als Ergänzung zu den Demonstrationen von KomuWeb Demoprojekt Hausen zu erstellen. Das Handbuch informiert kommunale Entscheidungsträger im Allgemeinen über die WebServices, Web Map Service (WMS) sowie Web Feature Service (WFS), und WebGIS, und spezifisch über KomuWeb WebGIS. Letzteres ist eine Dienstleistung der Firma traffic information and mangement GmbH (tim GmbH), und kann von jeder Kommune unabhängig von anderen GIS (geografischen Informationssystemen) eingesetzt werden. Das Zielpublikum dieser Diplomarbeit sind Personen mit GIS-Basiskenntnissen, die an der Entwicklung eines Handbuches interessiert sind. Die Methode der Handbuch-Entwicklung besteht aus folgenden Punkten: Vorgaben und Anregungen des Auftraggebers – v.a. mögliche Kapitel für das Handbuch Die vom Auftraggeber (tim GmbH) vorgeschlagenen, möglichen Handbuchkapitel werden thematisch den von der Autorin festgelegten Themengebieten für das Handbuch zugeordnet. Literaturquellen zu verschiedenen Sachgebieten Zu den Themengebieten werden anhand der zugeordneten Handbuchkapitel Literaturquellen gesucht, mit welchen Informationen über den Inhalt des Handbuches generiert werden können. Teilweise sind bereits Literaturquellen generiert, da auch für den Lösungsansatz des technischen KomuWeb-Entwurfes Literatur herangezogen wurde. Lösungsansatz des technischen KomuWeb-Entwurfes Der Lösungsansatz des technischen KomuWeb-Entwurfes beinhaltet Informationen zu Konzept, Methode und Werkzeugen, mit Fokus auf WMS und WFS. Aufbauend auf dem Lösungsansatz des technischen KomuWeb-Entwurfes wurde die Projektrealisierung des WebGIS KomuWeb durchgeführt, die im KomuWeb-Projektrahmen erläutert ist. KomuWeb-Projektrahmen und Erfahrungen der Autorin während der Projektdurchführung. Der KomuWeb-Projektrahmen informiert über alle Softwarekomponenten, die für die Implementierung von KomuWeb Demoprojekt Hausen herangezogen wurden, wie z.B. über die Datenbank PostgreSQL. Anhand der während der Projektdurchführung erworbenen Erfahrungen der Autorin können weitere Informationen für das Handbuch generiert werden, wie z.B. die Parameterangaben einer WMS-Anfrage. Um von der Methode zur Implementierung zu gelangen, werden je Themengebiet die aus den vier Punkten generierten Informationen zusammengefasst. Während der Anwendung der Methode je Themengebiet ist erkennbar, dass für ein Themengebiet ein zusätzlicher Punkt in die Methode miteinzubeziehen ist. Die endgültigen Kapitelnamen werden nach der Implementierung der Themengebiete festgelegt. Die Effizienz der angewandten Methode für dieses Handbuch und Richtlinien zur Erstellung anderer Handbücher anhand dieser Methode werden aufgezeigt.
Troposphärische Projektionsfunktionen für totale Laufzeitverzögerungen
Institut für Geodäsie und Geophysik, Technische Universität Wien, 2004. Begutachter: O.Univ.Prof. Dr.-Ing. Harald Schuh, Betreuer: Dipl.-Ing. Dr. Johannes Böhm.
Kurzfassung/Abstract
Für VLBI und GPS sind die troposphärischen Laufzeitverzögerungen neben den instrumentellen Einflüssen die wichtigste Fehlerquelle bei der Bestimmung geodätischer Parameter. Die Laufzeitverzögerung in der Atmosphäre wird in einen hydrostatischen und einen feuchten Anteil aufgeteilt. Der hydrostatische Anteil der Laufzeitverzögerung in Zenitrichtung kann sehr genau aus dem totalen Luftdruck an der Bodenstation, der Stationsbreite und der Stationshöhe bestimmt werden. Der feuchte Anteil in Zenitrichtung kann dagegen nicht aus meteorologischen Parametern an der Station berechnet werden, da Bodenwerte nicht repräsentativ für die Verteilung des Wasserdampfes über der Station sind. Der feuchte Anteil muss daher geschätzt werden. Bei VLBI Stationen wird der Druck an der Station gemessen. Bei GPS Stationen wird der Druck meist nicht gemessen, sondern ein Durchschnittswert an der Station verwendet. Dadurch treten Fehler in der hydrostatischen Laufzeitverzögerung in Zenitrichtung auf. Projektionsfunktionen bilden die hydrostatischen und feuchten Laufzeitverzögerungen in Zenitrichtung auf beliebige Elevationen ab. Durch den vorhin beschriebenen Fehler bei GPS wird ein Teil der hydrostatischen Laufzeitverzögerung in Zenitrichtung mit der falschen Projektionsfunktion multipliziert. Die neue Projektionsfunktion VMF(total) (Vienna Mapping Function total), die auf numerischen Wettermodellen beruht, verzichtet auf die Aufteilung in einen feuchten und einen hydrostatischen Anteil. Somit entstehen keine Fehler mehr aufgrund falscher Druckwerte und der Projektion mit der falschen Projektionsfunktion. Es wurde außerdem eine neue hydrostatische Projektionsfunktion VMF (hydro) gebildet, für die neue b und c Koeffizienten gewählt wurden. Diese neuen Werte passen für alle Jahreszeiten sowohl für die Süd- als auch für die Nordhalbkugel. Untersucht wird auch, wie wichtig gute a priori Informationen für die hydrostatische Laufzeitverzögerung in Zenitrichtung sind.
Für VLBI und GPS sind die troposphärischen Laufzeitverzögerungen neben den instrumentellen Einflüssen die wichtigste Fehlerquelle bei der Bestimmung geodätischer Parameter. Die Laufzeitverzögerung in der Atmosphäre wird in einen hydrostatischen und einen feuchten Anteil aufgeteilt. Der hydrostatische Anteil der Laufzeitverzögerung in Zenitrichtung kann sehr genau aus dem totalen Luftdruck an der Bodenstation, der Stationsbreite und der Stationshöhe bestimmt werden. Der feuchte Anteil in Zenitrichtung kann dagegen nicht aus meteorologischen Parametern an der Station berechnet werden, da Bodenwerte nicht repräsentativ für die Verteilung des Wasserdampfes über der Station sind. Der feuchte Anteil muss daher geschätzt werden. Bei VLBI Stationen wird der Druck an der Station gemessen. Bei GPS Stationen wird der Druck meist nicht gemessen, sondern ein Durchschnittswert an der Station verwendet. Dadurch treten Fehler in der hydrostatischen Laufzeitverzögerung in Zenitrichtung auf. Projektionsfunktionen bilden die hydrostatischen und feuchten Laufzeitverzögerungen in Zenitrichtung auf beliebige Elevationen ab. Durch den vorhin beschriebenen Fehler bei GPS wird ein Teil der hydrostatischen Laufzeitverzögerung in Zenitrichtung mit der falschen Projektionsfunktion multipliziert. Die neue Projektionsfunktion VMF(total) (Vienna Mapping Function total), die auf numerischen Wettermodellen beruht, verzichtet auf die Aufteilung in einen feuchten und einen hydrostatischen Anteil. Somit entstehen keine Fehler mehr aufgrund falscher Druckwerte und der Projektion mit der falschen Projektionsfunktion. Es wurde außerdem eine neue hydrostatische Projektionsfunktion VMF (hydro) gebildet, für die neue b und c Koeffizienten gewählt wurden. Diese neuen Werte passen für alle Jahreszeiten sowohl für die Süd- als auch für die Nordhalbkugel. Untersucht wird auch, wie wichtig gute a priori Informationen für die hydrostatische Laufzeitverzögerung in Zenitrichtung sind.