- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2010
Abschlussarbeiten 2010
Spaceborn Scatterometers for Change Detection over Land
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2010
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Untersuchungen der Erdoberfläche mit Scatterometern erlangen in der Mikrowellenfernerkundung einen immer größeren Stellenwert. Vor diesem Hintergrund muss festgestellt werden, dass ein zeitnaher Zugriff auf global verfügbare geophysikalische Parameter wie beispielsweise Bodenfeuchte oder Biomasse unumgänglich und essenziell für hydrologische und klimatologische Studien ist. Ein typisches Beispiel für die Ableitung geophysikalischer Parameter aus orbitgestützten Scatterometerdaten bietet die derzeitige Methodik zur Extraktion von Bodenfeuchteinformationen, die am Institut für Photogrammetrie und Fernerkundung (I.P.F.) der Technischen Universität Wien entwickelt wurde. Dabei werden die Bodenfeuchtedaten aus C-Band Scatterometerdaten der "European Remote Sensing Satellites" ERS-1 und ERS-2 abgeleitet.
Durch den an Bord der Metop-Satellitenfamilie eingebauten "Advanced Scatterometer" (ASCAT) ist eine operationelle Kontinuität der Methodik gegeben.
Zudem liefert der "SeaWinds"-Scatterometer an Bord des Satelliten QuikSCAT Daten in einem zusätzlichen Wellenlängenbereich (Ku-Band) und einer kontinuierlichen 360º azimuthal orientieren Blickrichtung. Jeder Versuch, aus diesen Sensoren (möglichst) globale geophysikalische Parameter der Landoberflächen abzuleiten, sieht sich aufgrund des spezifischen Rückstreuverhaltens verschiedener Landbedeckungskategorien und Klimate mit einer Reihe von Problemen konfrontiert.
Die vorliegende Dissertation verfolgt mehrere Zielsetzungen. Anfangs wird auf die Grundlagen der Radarfernerkundung im Allgemeinen und auf die der Scatterometrie im Speziellen eingegangen, und das unter besonderer Berücksichtigung des Instrumentendesigns und Funktionalität, der räumlichen und zeitlichen Datenabdeckung, der Datenprozessierung,
-kalibrierung und -validierung sowie möglicher Synergien zwischen den ERS-, ASCAT- und SeaWinds-Instrumenten. In einem zweiten wichtigen Punkt wird auf den Verbesserungsbedarf zweier derzeitiger Problempunkte bei der Bodenfeuchteableitung eingegangen. Dabei handelt es sich zum einen um die Wahl eines neuen diskreten geodätischen Gitternetz, um den Anforderungen der ASCAT-Daten im Bodenfeuchteprozessor Rechnung zu tragen. Des Weiteren wird dabei auf die Korrektur von Azimuthaleffekten in den Rückstreudaten des Scatterometers zur Verbesserung der Bodenfeuchteableitung in einigen problematischen Gebieten eingegangen.
Ein drittes Ziel dieser Arbeit ist die Darlegung des eigentlichen Bodenfeuchtealgorithmus unter Einbeziehung der zuvor genannten Verbesserungsvorschläge und der notwendigen Anpassung des ASCAT-Prozessors für die nahezu in Echtzeit erfolgende Datenverarbeitung. Die vierte und damit letzte Zielsetzung der vorliegenden Arbeit ist die Bewertung der absoluten und relativen Kalibrierung der beiden Instrumentengenerationen (ERS-1/2 und ASCAT), welche für Bereitstellung langfristiger, einheitlicher und konsistenter Rückstreu- und Bodenfeuchtedatensätze von großer Bedeutung ist.
Untersuchungen der Erdoberfläche mit Scatterometern erlangen in der Mikrowellenfernerkundung einen immer größeren Stellenwert. Vor diesem Hintergrund muss festgestellt werden, dass ein zeitnaher Zugriff auf global verfügbare geophysikalische Parameter wie beispielsweise Bodenfeuchte oder Biomasse unumgänglich und essenziell für hydrologische und klimatologische Studien ist. Ein typisches Beispiel für die Ableitung geophysikalischer Parameter aus orbitgestützten Scatterometerdaten bietet die derzeitige Methodik zur Extraktion von Bodenfeuchteinformationen, die am Institut für Photogrammetrie und Fernerkundung (I.P.F.) der Technischen Universität Wien entwickelt wurde. Dabei werden die Bodenfeuchtedaten aus C-Band Scatterometerdaten der "European Remote Sensing Satellites" ERS-1 und ERS-2 abgeleitet.
Durch den an Bord der Metop-Satellitenfamilie eingebauten "Advanced Scatterometer" (ASCAT) ist eine operationelle Kontinuität der Methodik gegeben.
Zudem liefert der "SeaWinds"-Scatterometer an Bord des Satelliten QuikSCAT Daten in einem zusätzlichen Wellenlängenbereich (Ku-Band) und einer kontinuierlichen 360º azimuthal orientieren Blickrichtung. Jeder Versuch, aus diesen Sensoren (möglichst) globale geophysikalische Parameter der Landoberflächen abzuleiten, sieht sich aufgrund des spezifischen Rückstreuverhaltens verschiedener Landbedeckungskategorien und Klimate mit einer Reihe von Problemen konfrontiert.
Die vorliegende Dissertation verfolgt mehrere Zielsetzungen. Anfangs wird auf die Grundlagen der Radarfernerkundung im Allgemeinen und auf die der Scatterometrie im Speziellen eingegangen, und das unter besonderer Berücksichtigung des Instrumentendesigns und Funktionalität, der räumlichen und zeitlichen Datenabdeckung, der Datenprozessierung,
-kalibrierung und -validierung sowie möglicher Synergien zwischen den ERS-, ASCAT- und SeaWinds-Instrumenten. In einem zweiten wichtigen Punkt wird auf den Verbesserungsbedarf zweier derzeitiger Problempunkte bei der Bodenfeuchteableitung eingegangen. Dabei handelt es sich zum einen um die Wahl eines neuen diskreten geodätischen Gitternetz, um den Anforderungen der ASCAT-Daten im Bodenfeuchteprozessor Rechnung zu tragen. Des Weiteren wird dabei auf die Korrektur von Azimuthaleffekten in den Rückstreudaten des Scatterometers zur Verbesserung der Bodenfeuchteableitung in einigen problematischen Gebieten eingegangen.
Ein drittes Ziel dieser Arbeit ist die Darlegung des eigentlichen Bodenfeuchtealgorithmus unter Einbeziehung der zuvor genannten Verbesserungsvorschläge und der notwendigen Anpassung des ASCAT-Prozessors für die nahezu in Echtzeit erfolgende Datenverarbeitung. Die vierte und damit letzte Zielsetzung der vorliegenden Arbeit ist die Bewertung der absoluten und relativen Kalibrierung der beiden Instrumentengenerationen (ERS-1/2 und ASCAT), welche für Bereitstellung langfristiger, einheitlicher und konsistenter Rückstreu- und Bodenfeuchtedatensätze von großer Bedeutung ist.
Remote Sensing Data Handling to improve the System Integration of Indonesian National Spatial Data Infrastructure
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2010
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Jansa
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Jansa
Kurzfassung/Abstract
Durch die Verwendung von Metadaten als Referenz für räumliche Abfragen werden Fernerkundungsdaten und andere räumliche Datensätze mit ihrer semantischen Information verbunden. In den gegenwärtigen Katalog-Systemen, wie etwa jenen von Satellitendaten-Anbietern und in den Daten-Vertriebssystemen wird jedes Fernerkundungsbild als unabhängige Einheit gehalten. Es gibt sehr eingeschränkte Möglichkeiten zu erfahren, wie ein Bild zu einem anderen verbunden ist, auch wenn ein Bild von einem anderen abgeleitet wurde. Für viele Zwecke ist vorteilhaft, wenn eine Verbindung zwischen Fernerkundungsbildern oder anderen räumlichen Daten erhalten oder rekonstruiert werden kann. Diese Forschungsarbeit soll erkunden, wie ein Bild zu dessen Information verknüpft ist und wie es zu anderen Bildern verknüpft werden kann.
Indem die Verbindungen zwischen den Fernerkundungsbildern untersucht werden, kann eine Abfrage in einer Sammlung von Fernerkundungsdaten erweitert werden, zum Beispiel, um die Antwort auf die Frage zu finden:
"Welche Bilder wurden verwendet, um einen bestimmten Datensatz zu erzeugen?", oder "Welche Bilder wurden unter Verwendung eines konkreten Datensatzes generiert?", oder "Gibt es eine Beziehung zwischen Bild A und Bild B in Bezug auf die durchlaufenen Prozessierungsschritte?" Indem Verbindungen zwischen den räumlichen Datensätzen innerhalb einer Datensammlung aufgebaut werden, welche die Prozessierungskette zur Grundlage nehmen, entsteht eine weitere Möglichkeit die Organisation räumlicher Daten zu unterstützen.
Das Ergebnis der Forschungsarbeiten führt zu einer Verbesserung der Handhabung räumlicher Daten, wobei eine Nachbarschaftsliste geführt wird, um die Verbindung zu existierenden räumlichen Daten aufzubauen.
Die Verbesserung steigert das Potenzial der Abfragen in räumlichen Daten innerhalb eines Katalog-Systems und ermöglicht das Gruppieren oder auch die Klassifizierung der Datensätze, abhängig von der Nutzung der Datensätze. In einem System, welches Entscheidungen unterstützen soll, kann die Aussage über die Nutzung jedes Datensatzes zur Qualitätsbeurteilung herangezogen werden, oder aber sie kann als ein Parameter dienen, mit welchem die Produktivität eines Datensatzes innerhalb einer Datensammlung bewertet werden kann.
Durch die Verwendung von Metadaten als Referenz für räumliche Abfragen werden Fernerkundungsdaten und andere räumliche Datensätze mit ihrer semantischen Information verbunden. In den gegenwärtigen Katalog-Systemen, wie etwa jenen von Satellitendaten-Anbietern und in den Daten-Vertriebssystemen wird jedes Fernerkundungsbild als unabhängige Einheit gehalten. Es gibt sehr eingeschränkte Möglichkeiten zu erfahren, wie ein Bild zu einem anderen verbunden ist, auch wenn ein Bild von einem anderen abgeleitet wurde. Für viele Zwecke ist vorteilhaft, wenn eine Verbindung zwischen Fernerkundungsbildern oder anderen räumlichen Daten erhalten oder rekonstruiert werden kann. Diese Forschungsarbeit soll erkunden, wie ein Bild zu dessen Information verknüpft ist und wie es zu anderen Bildern verknüpft werden kann.
Indem die Verbindungen zwischen den Fernerkundungsbildern untersucht werden, kann eine Abfrage in einer Sammlung von Fernerkundungsdaten erweitert werden, zum Beispiel, um die Antwort auf die Frage zu finden:
"Welche Bilder wurden verwendet, um einen bestimmten Datensatz zu erzeugen?", oder "Welche Bilder wurden unter Verwendung eines konkreten Datensatzes generiert?", oder "Gibt es eine Beziehung zwischen Bild A und Bild B in Bezug auf die durchlaufenen Prozessierungsschritte?" Indem Verbindungen zwischen den räumlichen Datensätzen innerhalb einer Datensammlung aufgebaut werden, welche die Prozessierungskette zur Grundlage nehmen, entsteht eine weitere Möglichkeit die Organisation räumlicher Daten zu unterstützen.
Das Ergebnis der Forschungsarbeiten führt zu einer Verbesserung der Handhabung räumlicher Daten, wobei eine Nachbarschaftsliste geführt wird, um die Verbindung zu existierenden räumlichen Daten aufzubauen.
Die Verbesserung steigert das Potenzial der Abfragen in räumlichen Daten innerhalb eines Katalog-Systems und ermöglicht das Gruppieren oder auch die Klassifizierung der Datensätze, abhängig von der Nutzung der Datensätze. In einem System, welches Entscheidungen unterstützen soll, kann die Aussage über die Nutzung jedes Datensatzes zur Qualitätsbeurteilung herangezogen werden, oder aber sie kann als ein Parameter dienen, mit welchem die Produktivität eines Datensatzes innerhalb einer Datensammlung bewertet werden kann.
Bestimmung des atmosphärischen Wasserdampfes mittels VLBI als Beitrag zur Klimaforschung
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2008
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Innerhalb der geodätischen Weltraumverfahren verfügt die VLBI (Very Long Baseline Interferometry) über lange und homogene Beobachtungsreihen, deren Anfänge in den späten Siebziger Jahren teilweise über 25 Jahre zurückliegen. An den global verteilten VLBI-Stationen wurden seit den Anfängen parallel zu den geodätischen Messungen die meteorologischen Größen Luftdruck, relative Feuchte und Temperatur aufgezeichnet. Die Refraktionen der geodätischen Beobachtungssignale in der Troposphäre werden überwiegend als zu korrigierende Fehleranteile betrachtet und im Zuge der Analyse mit entsprechenden Modellen korrigiert, damit die primären geodätischen Zielparameter möglichst unverfälscht erhalten werden. Aus den in der Parameterschätzung bestimmten troposphärischen Laufzeitverzögerungen kann jedoch mit Hilfe der meteorologischen Zustandsgrößen der Wasserdampfgehalt der freien Atmosphäre in der Nähe der Beobachtungsstationen abgeleitet werden. Da im Vergleich zu den Satellitenpositionierungsverfahren bei VLBI wegen der Richtwirkung der Teleskope auch bei Beobachtung unter sehr kleinen Elevationswinkeln keine nennenswerten Mehrwegeffekte auftreten, können diese für die Bestimmung der Troposphärenparameter äußerst wertvollen Beobachtungen in die Auswertung miteinbezogen werden. Die Berücksichtigung dieser niedrigen Beobachtungen bringt ebenso eine hohe Dekorrelation der Parametergruppen der Troposphäre, der Uhren und der Stationshöhen mit sich und verbessert die Schätzung der Troposphärengradienten. Die vorliegende Arbeit untersucht die Möglichkeiten und Grenzen der VLBI lange Zeitreihen homogener troposphärischer Laufzeitverzögerungen für klimatische Studien bereitzustellen. Die in der VLBI-Auswertesoftware OCCAM vorhandenen Analyseoptionen und Modelle werden hinsichtlich ihres Einflusses auf die Bestimmung überprüft, woraufhin eine optimale Analysekonfiguration vorgeschlagen werden kann. Die langen Zeitreihen werden mit den Zeitreihen anderer Analysezentren des IVS (International VLBI Service for Geodesy and Astrometry) verglichen und kombiniert. Das kombinierte IVS-Troposphärenprodukt wird mit einem Troposphärenprodukt des IGS (International GNSS Service) und mit den aus dem numerischen Wettermodell des ECMWF (European Centre for Medium-range Weather Forecasts) abgeleiteten Laufzeitverzögerungen verglichen.
Innerhalb der geodätischen Weltraumverfahren verfügt die VLBI (Very Long Baseline Interferometry) über lange und homogene Beobachtungsreihen, deren Anfänge in den späten Siebziger Jahren teilweise über 25 Jahre zurückliegen. An den global verteilten VLBI-Stationen wurden seit den Anfängen parallel zu den geodätischen Messungen die meteorologischen Größen Luftdruck, relative Feuchte und Temperatur aufgezeichnet. Die Refraktionen der geodätischen Beobachtungssignale in der Troposphäre werden überwiegend als zu korrigierende Fehleranteile betrachtet und im Zuge der Analyse mit entsprechenden Modellen korrigiert, damit die primären geodätischen Zielparameter möglichst unverfälscht erhalten werden. Aus den in der Parameterschätzung bestimmten troposphärischen Laufzeitverzögerungen kann jedoch mit Hilfe der meteorologischen Zustandsgrößen der Wasserdampfgehalt der freien Atmosphäre in der Nähe der Beobachtungsstationen abgeleitet werden. Da im Vergleich zu den Satellitenpositionierungsverfahren bei VLBI wegen der Richtwirkung der Teleskope auch bei Beobachtung unter sehr kleinen Elevationswinkeln keine nennenswerten Mehrwegeffekte auftreten, können diese für die Bestimmung der Troposphärenparameter äußerst wertvollen Beobachtungen in die Auswertung miteinbezogen werden. Die Berücksichtigung dieser niedrigen Beobachtungen bringt ebenso eine hohe Dekorrelation der Parametergruppen der Troposphäre, der Uhren und der Stationshöhen mit sich und verbessert die Schätzung der Troposphärengradienten. Die vorliegende Arbeit untersucht die Möglichkeiten und Grenzen der VLBI lange Zeitreihen homogener troposphärischer Laufzeitverzögerungen für klimatische Studien bereitzustellen. Die in der VLBI-Auswertesoftware OCCAM vorhandenen Analyseoptionen und Modelle werden hinsichtlich ihres Einflusses auf die Bestimmung überprüft, woraufhin eine optimale Analysekonfiguration vorgeschlagen werden kann. Die langen Zeitreihen werden mit den Zeitreihen anderer Analysezentren des IVS (International VLBI Service for Geodesy and Astrometry) verglichen und kombiniert. Das kombinierte IVS-Troposphärenprodukt wird mit einem Troposphärenprodukt des IGS (International GNSS Service) und mit den aus dem numerischen Wettermodell des ECMWF (European Centre for Medium-range Weather Forecasts) abgeleiteten Laufzeitverzögerungen verglichen.
A Language to Describe Geographic Physical Processes
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2010
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
Der Fachbereich Geographie untersucht, wie sich physische Strukturen und Verteil-ungen von Objekten im Raum verändern. Die Strukturen und Verteilungen werden von Prozessen geformt und beeinflusst. Modelle werden erstellt um die beobachteten Veränderungen zu analysieren und zu verstehen. Geographische Informationssysteme (GIS) werden vielfach für räumliche Analysen verwendet; in Bezug auf die Prozess¬modellierung spielen sie auf Grund ihrer statischen Natur nur eine unterstützende Rolle. Die Integration der Konzepte, die mit Prozessen in Zusammenhang stehen, in GIS ist eine der ungelösten Aufgaben der geographischen Informationswissenschaften.
Das Ziel der vorliegenden Arbeit ist es die Anforderungen der Prozessmodellierung besser zu verstehen um langfristig GIS mit Funktionalität zur Prozessmodellierung erweitern zu können. Die Integration von Methoden zur Prozessmodellierung in GIS, die den Anforderungen verschiedenster Anwendungsbereiche gerecht werden, ist nicht realisierbar. Daher muss eine Abstraktion von den Details quantitativer Modellier-ung durchgeführt und eine allgemeine Methode zur Prozessmodellierung angestrebt werden.
In dieser Forschungsarbeit wird eine systematische Analyse mathematischer Modelle geographischer Prozesse durchgeführt um eine allgemeine Methode zur Be-schreibung dieser Prozesse zu definieren; der Fokus ist hierbei auf geographisch physikalischen Prozessen. Die allgemeine Beschreibungsmethode ist eine Prozess-beschreibungssprache, die aus drei Komponenten besteht:
Das Resultat dieser Arbeit ist eine Prozessbeschreibungssprache, die es erlaubt das Verhalten von Prozessen auf einer qualitativen Ebene zu beschreiben, und die es er-möglicht Beschreibungen von Prozesskomponenten zu Modellen zusammenzusetzen. Eine Benutzerschnittstelle führt den Nutzer von einer Konzeption des Verhaltens eines Prozesses zu Gleichungen die den Prozess beschreiben.
Die Anwendung der Prozessbeschreibungssprache wird an zwei Beispielen demons-triert: der Ausbreitung von Giftstoffen in einem See und der Ausbreitung von Abgasen eines Fabrikschlots. Das Ergebnis der Anwendung der Prozessbeschreibungssprache ist die Spezifikation der Prozesse zusammen mit benötigten Anfangs- und Randbe-dingungen sowie Parameterwerten. Die erstellten Modelle werden als Modellentwürfe bezeichnet; diese Modellentwürfe beinhalten die benötigte Information zur Simula¬tion der Prozesse. Diese Arbeit stellt die Basis für die Implementierung einer Pro-zessbeschreibungsumgebung zur Verfügung, die die Integration von Funktionalität zur Prozessmodellierung und GIS voranbringen kann.
Der Fachbereich Geographie untersucht, wie sich physische Strukturen und Verteil-ungen von Objekten im Raum verändern. Die Strukturen und Verteilungen werden von Prozessen geformt und beeinflusst. Modelle werden erstellt um die beobachteten Veränderungen zu analysieren und zu verstehen. Geographische Informationssysteme (GIS) werden vielfach für räumliche Analysen verwendet; in Bezug auf die Prozess¬modellierung spielen sie auf Grund ihrer statischen Natur nur eine unterstützende Rolle. Die Integration der Konzepte, die mit Prozessen in Zusammenhang stehen, in GIS ist eine der ungelösten Aufgaben der geographischen Informationswissenschaften.
Das Ziel der vorliegenden Arbeit ist es die Anforderungen der Prozessmodellierung besser zu verstehen um langfristig GIS mit Funktionalität zur Prozessmodellierung erweitern zu können. Die Integration von Methoden zur Prozessmodellierung in GIS, die den Anforderungen verschiedenster Anwendungsbereiche gerecht werden, ist nicht realisierbar. Daher muss eine Abstraktion von den Details quantitativer Modellier-ung durchgeführt und eine allgemeine Methode zur Prozessmodellierung angestrebt werden.
In dieser Forschungsarbeit wird eine systematische Analyse mathematischer Modelle geographischer Prozesse durchgeführt um eine allgemeine Methode zur Be-schreibung dieser Prozesse zu definieren; der Fokus ist hierbei auf geographisch physikalischen Prozessen. Die allgemeine Beschreibungsmethode ist eine Prozess-beschreibungssprache, die aus drei Komponenten besteht:
- einem Vokabular; das sind die mathematischen Operatoren, die ein Modell be-schreiben;
- Regeln zur Zusαmmensetzung der Elemente des Vokabulars;
- einer graphischen Benutzerschnittstelle, die die Benutzer durch die Modellierung führt.
Das Resultat dieser Arbeit ist eine Prozessbeschreibungssprache, die es erlaubt das Verhalten von Prozessen auf einer qualitativen Ebene zu beschreiben, und die es er-möglicht Beschreibungen von Prozesskomponenten zu Modellen zusammenzusetzen. Eine Benutzerschnittstelle führt den Nutzer von einer Konzeption des Verhaltens eines Prozesses zu Gleichungen die den Prozess beschreiben.
Die Anwendung der Prozessbeschreibungssprache wird an zwei Beispielen demons-triert: der Ausbreitung von Giftstoffen in einem See und der Ausbreitung von Abgasen eines Fabrikschlots. Das Ergebnis der Anwendung der Prozessbeschreibungssprache ist die Spezifikation der Prozesse zusammen mit benötigten Anfangs- und Randbe-dingungen sowie Parameterwerten. Die erstellten Modelle werden als Modellentwürfe bezeichnet; diese Modellentwürfe beinhalten die benötigte Information zur Simula¬tion der Prozesse. Diese Arbeit stellt die Basis für die Implementierung einer Pro-zessbeschreibungsumgebung zur Verfügung, die die Integration von Funktionalität zur Prozessmodellierung und GIS voranbringen kann.
Combination of Space Geodetic Techniques aktiven GNSS-Referenzstationsnetzen im verbauten Gebiet
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2010
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Seit dem Beginn der 90-er Jahre des vorigen Jahrhunderts entwickelte sich die satellitengestützte Positionierung (in erster Linie mittels GPS) zu einer wesentlichen Technik der geodätischen Punktbestimmung. Waren anfänglich noch Aufstellungszeiten von mehreren Stunden und eine adäquate Auswertung der Messdaten im Postprocessing nötig, um eine cm-genaue Lage- und Höhenfestlegung zu erreichen, benötigt man heute im Allgemeinen nur wenige Sekunden um auf Basis von in Echtzeit übermittelten Referenzdaten Phasen-¬Mehrdeutigkeiten mit Hilfe einer im Rover verfügbaren Software zu lösen und dessen Position im cm-Genauigkeitsbereich zu fixieren. Dieser so genannten präzisen Differenztechnik (RTK= Real Time Kinematic Positionierung) wurde durch den zügigen Aufbau von Referenzstationsnetzen in fast allen europäischen Staaten und der Abgabe geeigneter Korrektursignale in Standardformaten (RTCM) durch die Referenzdienstbetreiber zum Durchbruch verholfen.
Für die RTK Positionierung wird der gleichzeitige Empfang von Signalen von mindestens 5 Navigationssatelliten benötigt. Vor allem in abgeschatteten Bereichen (Bebauung, Bewuchs, etc.) kann dieser allerdings nicht immer gewährleistet werden. Die zusätzliche Anmessung von Satelliten des russischen Navigationssystems GLONASS kann hier Abhilfe schaffen, setzt allerdings auch geeignete Hardware (hybride Empfänger auf der Rover- und Referenzseite) als auch anspruchsvollere Algorithmen (Rover-Software) zur Mehrdeutigkeitslösung voraus.
Die vorliegende Arbeit untersucht nach einer ausführlichen Darstellung der heute zugänglichen GN:SS (Global Navigation Saftelite Systems) die Vor- und Nachteile einer auf GPS+GLONASS gestützten Echtzeitpunktbestimmung im Stadtgebiet im Vergleich zu einer ,GPS -alone' Lösung. Es wurden an Stationen mit für das Stadtgebiet typischen Abschattungsszenarien Mehrfachpunktbestimmungen ausgeführt und die Κοοrdinatenlösungen auf deren Genauigkeit, Wiederholbarkeit und Dauer der Fixierung analysiert. Mitunter standen nur 4 oder weniger GPS Satelliten zur Verfügung, ein Problem das mit kombinierten GPS+GLONASS Empfängern zumindest zeitweise überbrückt werden kann. Neben Aussagen zum Multipath -Einfluss auf die Messungen wurden Empfehlungen für die RTK-Positionierung im Stadtgebiet erarbeitet.
Seit dem Beginn der 90-er Jahre des vorigen Jahrhunderts entwickelte sich die satellitengestützte Positionierung (in erster Linie mittels GPS) zu einer wesentlichen Technik der geodätischen Punktbestimmung. Waren anfänglich noch Aufstellungszeiten von mehreren Stunden und eine adäquate Auswertung der Messdaten im Postprocessing nötig, um eine cm-genaue Lage- und Höhenfestlegung zu erreichen, benötigt man heute im Allgemeinen nur wenige Sekunden um auf Basis von in Echtzeit übermittelten Referenzdaten Phasen-¬Mehrdeutigkeiten mit Hilfe einer im Rover verfügbaren Software zu lösen und dessen Position im cm-Genauigkeitsbereich zu fixieren. Dieser so genannten präzisen Differenztechnik (RTK= Real Time Kinematic Positionierung) wurde durch den zügigen Aufbau von Referenzstationsnetzen in fast allen europäischen Staaten und der Abgabe geeigneter Korrektursignale in Standardformaten (RTCM) durch die Referenzdienstbetreiber zum Durchbruch verholfen.
Für die RTK Positionierung wird der gleichzeitige Empfang von Signalen von mindestens 5 Navigationssatelliten benötigt. Vor allem in abgeschatteten Bereichen (Bebauung, Bewuchs, etc.) kann dieser allerdings nicht immer gewährleistet werden. Die zusätzliche Anmessung von Satelliten des russischen Navigationssystems GLONASS kann hier Abhilfe schaffen, setzt allerdings auch geeignete Hardware (hybride Empfänger auf der Rover- und Referenzseite) als auch anspruchsvollere Algorithmen (Rover-Software) zur Mehrdeutigkeitslösung voraus.
Die vorliegende Arbeit untersucht nach einer ausführlichen Darstellung der heute zugänglichen GN:SS (Global Navigation Saftelite Systems) die Vor- und Nachteile einer auf GPS+GLONASS gestützten Echtzeitpunktbestimmung im Stadtgebiet im Vergleich zu einer ,GPS -alone' Lösung. Es wurden an Stationen mit für das Stadtgebiet typischen Abschattungsszenarien Mehrfachpunktbestimmungen ausgeführt und die Κοοrdinatenlösungen auf deren Genauigkeit, Wiederholbarkeit und Dauer der Fixierung analysiert. Mitunter standen nur 4 oder weniger GPS Satelliten zur Verfügung, ein Problem das mit kombinierten GPS+GLONASS Empfängern zumindest zeitweise überbrückt werden kann. Neben Aussagen zum Multipath -Einfluss auf die Messungen wurden Empfehlungen für die RTK-Positionierung im Stadtgebiet erarbeitet.
From map and compass to ubiquitous navigation - How navigation tools, strategies and errors work in a natural environment
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2009
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Begutachter: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
The thesis demonstrates the hypothesis, that the error characteristics of the navigation tool determine the strategy of navigation.
We first define the basic terms related to the navigation, wayfinding, cognition and locomotion. Among them, the terms dead reckoning, path integration and updating are exposed. We introduce the ideas of the optimum path and the different least-cost paths, including the fastest path.
We introduce the navigation with map and compass, and the technique of orienteering in a natural environment. We decompose the strategy and the execution of such a navigation into primitive actions in the framework of the sense-plan-act architecture. The optimum path is hierarchically divided into legs, runs, and segments, where legs as a part of the orienteering course lie between two control points, runs lie between two waypoints, and segments represent the chunks of optimum path with homogeneous friction and risk properties. The planned and the executed paths are in principle different. A separate treatment is dedicated to the errors in navigation, where we focus on the cognitive and physical background of errors, and not on the positional accuracy of navigation.
To compare the different tools and strategies, we describe the technically augmented navigation, as an opposition to the classical orienteering with map and compass. Two devices are presented: a GPS receiver with a screen map, and a GLASS receiver with a screen map which is hypothetically functioning everywhere. The strategy, the execution, and the errors are analysed in a comparable way to the orienteering navigation case.
The most important part of the thesis is the simulation, where we numerically demonstrate the hypothesis with the vector-type cognitive approach. We take an orienteering map, we choose the origin and the destination, and we draw several optimum paths between both. Then we cognitively define the waypoints and segments along each of the different optimum paths. The optimum path condition requires, that the (fictive) navigator has to travel the distance in the shortest time.
We empirically and experientially construct the spreadsheets of frictions and risks for each of the three tools. The following are computed: the resistance to locomotion, the navigation risk, the anisotropic slope friction, and the dead reckoning and waypoint discernibility risk. From the distances, frictions, risks, and the average running pace of the navigator, we then compute the cost and time for each run, each optimum path, and each tool. From the results we infer the general characteristics of risks and strategies regarding the three tools used on open areas and in a forest. The general strategy of navigation with map and compass is dead reckoning, aided by feature matching, while for the GPS and GLASS receiver cases the strategy is positioning aided by the display of straight direction to the next waypoint on a screen map.
We observe, that the time of travel functionally depends on cost and pace, where the pace depends on the physical condition of the navigator, and the cost depends on distances, frictions and risks. The distance is influenced by the position of origin, destination and waypoints. The frictions depend on the environment, however the risks depend on the strategy, where the strategy depends on the tool Finally, we conclude that the tool provides affordances for the emerging errors. The series of formal statements within an IF clause positively demonstrates the hypothesis.
The thesis demonstrates the hypothesis, that the error characteristics of the navigation tool determine the strategy of navigation.
We first define the basic terms related to the navigation, wayfinding, cognition and locomotion. Among them, the terms dead reckoning, path integration and updating are exposed. We introduce the ideas of the optimum path and the different least-cost paths, including the fastest path.
We introduce the navigation with map and compass, and the technique of orienteering in a natural environment. We decompose the strategy and the execution of such a navigation into primitive actions in the framework of the sense-plan-act architecture. The optimum path is hierarchically divided into legs, runs, and segments, where legs as a part of the orienteering course lie between two control points, runs lie between two waypoints, and segments represent the chunks of optimum path with homogeneous friction and risk properties. The planned and the executed paths are in principle different. A separate treatment is dedicated to the errors in navigation, where we focus on the cognitive and physical background of errors, and not on the positional accuracy of navigation.
To compare the different tools and strategies, we describe the technically augmented navigation, as an opposition to the classical orienteering with map and compass. Two devices are presented: a GPS receiver with a screen map, and a GLASS receiver with a screen map which is hypothetically functioning everywhere. The strategy, the execution, and the errors are analysed in a comparable way to the orienteering navigation case.
The most important part of the thesis is the simulation, where we numerically demonstrate the hypothesis with the vector-type cognitive approach. We take an orienteering map, we choose the origin and the destination, and we draw several optimum paths between both. Then we cognitively define the waypoints and segments along each of the different optimum paths. The optimum path condition requires, that the (fictive) navigator has to travel the distance in the shortest time.
We empirically and experientially construct the spreadsheets of frictions and risks for each of the three tools. The following are computed: the resistance to locomotion, the navigation risk, the anisotropic slope friction, and the dead reckoning and waypoint discernibility risk. From the distances, frictions, risks, and the average running pace of the navigator, we then compute the cost and time for each run, each optimum path, and each tool. From the results we infer the general characteristics of risks and strategies regarding the three tools used on open areas and in a forest. The general strategy of navigation with map and compass is dead reckoning, aided by feature matching, while for the GPS and GLASS receiver cases the strategy is positioning aided by the display of straight direction to the next waypoint on a screen map.
We observe, that the time of travel functionally depends on cost and pace, where the pace depends on the physical condition of the navigator, and the cost depends on distances, frictions and risks. The distance is influenced by the position of origin, destination and waypoints. The frictions depend on the environment, however the risks depend on the strategy, where the strategy depends on the tool Finally, we conclude that the tool provides affordances for the emerging errors. The series of formal statements within an IF clause positively demonstrates the hypothesis.
Dynamic and Reduced-Dynamic Precise Orbit Determination of Satellites in Low Earth Orbits
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2009
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Begutachter: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Die präzise Bahnbestimmung von Satelliten in niedrigen Erdumlaufbahnen (LEO für Low Earth Orbit) entwickelte sich zu einem zentralen Verfahren für moderne Weltraummissionen. Das Erfordernis hochgenauer Orbitlösungen wurde wesentlich durch dedizierte Satellitenmissionen, wie CHAMP, GRACE und GOCE, ausgelöst, mit dem Ziel das Schwerefeld der Erde und dessen zeitliche Variation mit bisher unerreichter Genauigkeit zu bestimmen. Durch die Möglichkeit, LEO Satellitenbahnen genau zu bestimmen, eröffnen sich zusätzlich weitreichende wissenschaftliche Möglichkeiten. Das zugrundeliegende Messsystem für die Navigation dieser Satellitenmissionen sind GPS-Empfänger. Es ist das Ziel dieser Arbeit, Methoden zur exakten Bahnbestimmung (POD für Precise Orbit Determination) mittels GPS von LEO Satelliten zu entwickeln und umzusetzen. Dabei wird ein Höchstmaß an Genauigkeit angestrebt, bei gleichzeitiger Achtung auf Effizienz und Schnelligkeit der zum Einsatz kommenden Verfahren. Die erstellten Bahnlösungen sollen die Qualität der Lösungen etablierter Methoden anderer Organisationen erreichen.
Dynamische und reduziert-dynamische Bahnmodelle bilden die Grundlage der hier verwendeten Verfahren. Diese Modelle werden an die hochgenauen GPS-Messungen angepasst. Dabei werden die GPS-Messungen undifferenziert in der ionosphärenfreien Linearkombination verwendet. Es werden geeignete Methoden entwickelt um fehlerhafte Beobachtungsdaten zu detektieren und herauszufiltern. Für das dynamische Bahnmodell wird ein hochentwickeltes Kraftfeld speziell für LEO Satelliten erarbeitet. Um die dennoch eingeschränkte Einsatzfähigkeit rein dynamischer Modelle auszugleichen, wird das Bahnmodell alternativ um zwei verschiedene Arten empirischer Parameter erweitert. Das resultierende reduziert-dynamische Orbitmodell erlaubt die Erstellung weit längerer Bahnbögen unter größtmöglicher Bewahrung der dynamischen Gesetzmäßigkeiten. Als reduziert-dynamische Methoden werden Geschwindigkeitssprünge an vorgegebenen Zeitpunkten (Pulse) oder abschnittsweise konstante Beschleunigungen eingesetzt. Für beide Techniken kommen hocheffiziente Algorithmen zur Anwendung. Die Bestimmung der zusätzlich eingeführten Parameter erfolgt während der Anpassung an die Messdaten. Dabei werden diesen Parametern statistische Eigenschaften vorgegeben um deren Einfluss auf die Bahnlösung zu kontrollieren. Hiermit wird ein ausgezeichnetes Zusammenwirken des fortgeschrittenen Kenntnisstandes über Bahnbewegung und der hohen Genauigkeit der GPS-Messungen erzielt.
Die entwickelten Verfahren wurden in einem Computerprogramm umgesetzt und für die Missionen CHAMP und GRACE getestet. Die verwendeten Verfahren erwiesen sich als überaus effizient, robust und flexibel. Im Vergleich zu Bahnlösungen anderer bewährter Verfahren erreichen dynamisch erstellte Lösungen, mit Bahnlängen bis zu 90 Minuten, Genauigkeiten im 1-Dezimeterbereich. Mit dem Einsatz einer angemessenen Anzahl pseudo-stochastischer Parameter mit entsprechender Gewichtung, eignet sich die reduziert-dynamische Bahnbestimmung hervorragend für LEO-POD- Anwendungen. Es werden Genauigkeiten von bis zu 4.5 cm RMS für Orbitlösungen über einen ganzen Tag erreicht.
Die präzise Bahnbestimmung von Satelliten in niedrigen Erdumlaufbahnen (LEO für Low Earth Orbit) entwickelte sich zu einem zentralen Verfahren für moderne Weltraummissionen. Das Erfordernis hochgenauer Orbitlösungen wurde wesentlich durch dedizierte Satellitenmissionen, wie CHAMP, GRACE und GOCE, ausgelöst, mit dem Ziel das Schwerefeld der Erde und dessen zeitliche Variation mit bisher unerreichter Genauigkeit zu bestimmen. Durch die Möglichkeit, LEO Satellitenbahnen genau zu bestimmen, eröffnen sich zusätzlich weitreichende wissenschaftliche Möglichkeiten. Das zugrundeliegende Messsystem für die Navigation dieser Satellitenmissionen sind GPS-Empfänger. Es ist das Ziel dieser Arbeit, Methoden zur exakten Bahnbestimmung (POD für Precise Orbit Determination) mittels GPS von LEO Satelliten zu entwickeln und umzusetzen. Dabei wird ein Höchstmaß an Genauigkeit angestrebt, bei gleichzeitiger Achtung auf Effizienz und Schnelligkeit der zum Einsatz kommenden Verfahren. Die erstellten Bahnlösungen sollen die Qualität der Lösungen etablierter Methoden anderer Organisationen erreichen.
Dynamische und reduziert-dynamische Bahnmodelle bilden die Grundlage der hier verwendeten Verfahren. Diese Modelle werden an die hochgenauen GPS-Messungen angepasst. Dabei werden die GPS-Messungen undifferenziert in der ionosphärenfreien Linearkombination verwendet. Es werden geeignete Methoden entwickelt um fehlerhafte Beobachtungsdaten zu detektieren und herauszufiltern. Für das dynamische Bahnmodell wird ein hochentwickeltes Kraftfeld speziell für LEO Satelliten erarbeitet. Um die dennoch eingeschränkte Einsatzfähigkeit rein dynamischer Modelle auszugleichen, wird das Bahnmodell alternativ um zwei verschiedene Arten empirischer Parameter erweitert. Das resultierende reduziert-dynamische Orbitmodell erlaubt die Erstellung weit längerer Bahnbögen unter größtmöglicher Bewahrung der dynamischen Gesetzmäßigkeiten. Als reduziert-dynamische Methoden werden Geschwindigkeitssprünge an vorgegebenen Zeitpunkten (Pulse) oder abschnittsweise konstante Beschleunigungen eingesetzt. Für beide Techniken kommen hocheffiziente Algorithmen zur Anwendung. Die Bestimmung der zusätzlich eingeführten Parameter erfolgt während der Anpassung an die Messdaten. Dabei werden diesen Parametern statistische Eigenschaften vorgegeben um deren Einfluss auf die Bahnlösung zu kontrollieren. Hiermit wird ein ausgezeichnetes Zusammenwirken des fortgeschrittenen Kenntnisstandes über Bahnbewegung und der hohen Genauigkeit der GPS-Messungen erzielt.
Die entwickelten Verfahren wurden in einem Computerprogramm umgesetzt und für die Missionen CHAMP und GRACE getestet. Die verwendeten Verfahren erwiesen sich als überaus effizient, robust und flexibel. Im Vergleich zu Bahnlösungen anderer bewährter Verfahren erreichen dynamisch erstellte Lösungen, mit Bahnlängen bis zu 90 Minuten, Genauigkeiten im 1-Dezimeterbereich. Mit dem Einsatz einer angemessenen Anzahl pseudo-stochastischer Parameter mit entsprechender Gewichtung, eignet sich die reduziert-dynamische Bahnbestimmung hervorragend für LEO-POD- Anwendungen. Es werden Genauigkeiten von bis zu 4.5 cm RMS für Orbitlösungen über einen ganzen Tag erreicht.
A Study about Optimal Intra-Technique Combination of VLBI Analysis Center Solutions
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2008
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Hauptanliegen der Dissertation ist die Vorstellung einer detaillierten Untersuchung zur optimalen Kombination von Lösungen verschiedener VLBI (Very Long Baseline Interferometry) Analyse Zentren (AC). Die Betonung liegt dabei (i) auf dem Level der Normalgleichungen, auf (ii) Qualitätskriterien für die Normalgleichungen im Bezug auf Rangdefizit und Konditionszahlen, (iii) der Skalierung individueller Normalgleichungen, (iv) der Regularisierung kombinierter Normalgleichungen und (v) der Kombination von Lösungen, die durch verschiedene Strategien (z. B. Kalman Filter und Kleinste-Quadrate) berechnet wurden. Eine Zusammenfassung der Berechnungsstrategien für die Kombination von Normalgleichungen wird im theoretischen Teil der Arbeit vorgestellt. Wir diskutieren unterschiedliche Ansätze für die effiziente Kombination verschiedener VLBI AC Lösungen für die Schätzung von Stationskoordinaten.
Im ersten Abschnitt werden in einem kombinierten Ausgleichungsmodel optimale Skalierungsfaktoren für die jeweiligen VLBI AC gerechnet, dafür wird das bekannte und verbreitete Verfahren der Varianzkomponentenschätzung (VCE) eingesetzt. Die Ergebnisse geben Aufschluss darüber, wie geeignet der VCE Ansatz für die Kombination von VLBI AC Lösungen ist.
Im zweiten Teil wurde ein neuer Algorithmus für die VLBI intra-Technik-Kombination vorgeschlagen, den wir zwei-Schritt-Kombination genannt haben. In den aktuellen Kombinationsalgorithmen wurde für gewöhnlich die weit verbreitete S-Transformation für die Datumsdefinition eingesetzt. Im vorliegenden Fall bleiben die kombinierten Normalgleichungen sogar nach der Datumsdefinition schlecht konditioniert und enthalten große Konditionszahlen. Der Grund dafür ist das Fehlen von Bedingungsgleichungen (z.B. für Uhren- und für Atmosphärenparameter), die in der originalen VLBI Lösung eingesetzt werden. Daher schlagen wir mit unserem Kombinationsalgorithmus die Verwendung von Bedingungen vor, durch die die Regularisierung, die Entfernung des Rangdefizits, ohne die S-Transformation erreicht werden kann. Im ersten Schritt werden die unbekannten Varianzkomponenten für die einzelnen VLBI AC Lösungen geschätzt und im zweiten Schritt wird der kombinierten Normalgleichungsmatrix eine Regularisierung vom Typ Tikhonov hinzugefügt. Zur optimalen Auswahl der Regularisierungsparameter wurden verschiedene Methoden eingesetzt, z. B. empirisches Vorgehen, L-curve, generalized cross validation method (GCV) und Varianzkomponentenschätzung (VCE).
Der letzte Teil der Arbeit behandelt die Studie der Kombination der VLBI AC Lösungen, die verschiedene Analysestrategien einsetzen. Die VLBI Softwareprogramme zur Datenanalyse, die von verschiedenen IVS (International VLBI Service for Geodesy and Astrometry) AC (BKG (Bundesamt für Kartographie und Geodäsie), NASA GSFC (Goddard Space Flight Center), DGFI (Deutsches Geodätisches Forschungsinstitut), SHA (Shanghai Astronomical Observatory), USNO (United States Naval Observatory), MAO (Main Astronomical Observatory of the Academy of Sciences of Ukraina), AUS (Geoscience Australia)) verwendet werden, setzen statistische Methoden ein, die das Verhalten von stochastischen Parametern auf unterschiedliche Weise behandeln:.Die Kleinste-Quadrate-Methode (LSQ), das Kalman Filter (KF), das Square-Root-Information-Filter (SRIF) und die Kleinste-Quadrate-Kollokation (LSQC). In dieser Studie werden die Kombination von Kalman Filter und LSQ Lösungen von unserem VLBI intra-Technik-Kombinationsalgorithmus berücksichtigt. Die Hauptaufmerksamkeit richten wir dabei auf die Äquivalenz der Ergebnisse der Kalman Filter und der Kleinsten-Quadrate Schätzungsverfahren.
Vergleich und Kombination der Ergebnisse dieser beiden Methoden werden mit simulierten VLBI Daten durchgeführt. Dadurch dass das VLBI AC, das die Kalman Filter Lösung erzeugt, nicht die zum Vergleich oder zur Kombination mit LSQ Schätzungsergebnissen erforderliche Form bereitstellt, können wir diese Kalman Filter Ergebnisse nicht direkt in unserem VLBI intra-Technik-Kombinationsalgorithmus für die Kombination mit anderen VLBI AC Ergebnissen, die die Form der LSQ Schätzung besitzen, einsetzen. In dieser Studie werden einige Ideen für zusätzliche Verfahren gegeben, die für die Form des Kalman Filters herangezogen werden können, um es mit LSQ Ergebnissen kombinieren zu können.
Hauptanliegen der Dissertation ist die Vorstellung einer detaillierten Untersuchung zur optimalen Kombination von Lösungen verschiedener VLBI (Very Long Baseline Interferometry) Analyse Zentren (AC). Die Betonung liegt dabei (i) auf dem Level der Normalgleichungen, auf (ii) Qualitätskriterien für die Normalgleichungen im Bezug auf Rangdefizit und Konditionszahlen, (iii) der Skalierung individueller Normalgleichungen, (iv) der Regularisierung kombinierter Normalgleichungen und (v) der Kombination von Lösungen, die durch verschiedene Strategien (z. B. Kalman Filter und Kleinste-Quadrate) berechnet wurden. Eine Zusammenfassung der Berechnungsstrategien für die Kombination von Normalgleichungen wird im theoretischen Teil der Arbeit vorgestellt. Wir diskutieren unterschiedliche Ansätze für die effiziente Kombination verschiedener VLBI AC Lösungen für die Schätzung von Stationskoordinaten.
Im ersten Abschnitt werden in einem kombinierten Ausgleichungsmodel optimale Skalierungsfaktoren für die jeweiligen VLBI AC gerechnet, dafür wird das bekannte und verbreitete Verfahren der Varianzkomponentenschätzung (VCE) eingesetzt. Die Ergebnisse geben Aufschluss darüber, wie geeignet der VCE Ansatz für die Kombination von VLBI AC Lösungen ist.
Im zweiten Teil wurde ein neuer Algorithmus für die VLBI intra-Technik-Kombination vorgeschlagen, den wir zwei-Schritt-Kombination genannt haben. In den aktuellen Kombinationsalgorithmen wurde für gewöhnlich die weit verbreitete S-Transformation für die Datumsdefinition eingesetzt. Im vorliegenden Fall bleiben die kombinierten Normalgleichungen sogar nach der Datumsdefinition schlecht konditioniert und enthalten große Konditionszahlen. Der Grund dafür ist das Fehlen von Bedingungsgleichungen (z.B. für Uhren- und für Atmosphärenparameter), die in der originalen VLBI Lösung eingesetzt werden. Daher schlagen wir mit unserem Kombinationsalgorithmus die Verwendung von Bedingungen vor, durch die die Regularisierung, die Entfernung des Rangdefizits, ohne die S-Transformation erreicht werden kann. Im ersten Schritt werden die unbekannten Varianzkomponenten für die einzelnen VLBI AC Lösungen geschätzt und im zweiten Schritt wird der kombinierten Normalgleichungsmatrix eine Regularisierung vom Typ Tikhonov hinzugefügt. Zur optimalen Auswahl der Regularisierungsparameter wurden verschiedene Methoden eingesetzt, z. B. empirisches Vorgehen, L-curve, generalized cross validation method (GCV) und Varianzkomponentenschätzung (VCE).
Der letzte Teil der Arbeit behandelt die Studie der Kombination der VLBI AC Lösungen, die verschiedene Analysestrategien einsetzen. Die VLBI Softwareprogramme zur Datenanalyse, die von verschiedenen IVS (International VLBI Service for Geodesy and Astrometry) AC (BKG (Bundesamt für Kartographie und Geodäsie), NASA GSFC (Goddard Space Flight Center), DGFI (Deutsches Geodätisches Forschungsinstitut), SHA (Shanghai Astronomical Observatory), USNO (United States Naval Observatory), MAO (Main Astronomical Observatory of the Academy of Sciences of Ukraina), AUS (Geoscience Australia)) verwendet werden, setzen statistische Methoden ein, die das Verhalten von stochastischen Parametern auf unterschiedliche Weise behandeln:.Die Kleinste-Quadrate-Methode (LSQ), das Kalman Filter (KF), das Square-Root-Information-Filter (SRIF) und die Kleinste-Quadrate-Kollokation (LSQC). In dieser Studie werden die Kombination von Kalman Filter und LSQ Lösungen von unserem VLBI intra-Technik-Kombinationsalgorithmus berücksichtigt. Die Hauptaufmerksamkeit richten wir dabei auf die Äquivalenz der Ergebnisse der Kalman Filter und der Kleinsten-Quadrate Schätzungsverfahren.
Vergleich und Kombination der Ergebnisse dieser beiden Methoden werden mit simulierten VLBI Daten durchgeführt. Dadurch dass das VLBI AC, das die Kalman Filter Lösung erzeugt, nicht die zum Vergleich oder zur Kombination mit LSQ Schätzungsergebnissen erforderliche Form bereitstellt, können wir diese Kalman Filter Ergebnisse nicht direkt in unserem VLBI intra-Technik-Kombinationsalgorithmus für die Kombination mit anderen VLBI AC Ergebnissen, die die Form der LSQ Schätzung besitzen, einsetzen. In dieser Studie werden einige Ideen für zusätzliche Verfahren gegeben, die für die Form des Kalman Filters herangezogen werden können, um es mit LSQ Ergebnissen kombinieren zu können.
Combination of Space Geodetic Techniques for Global Mapping of the Ionosphere
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2008
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Der oberste Teil der Erdatmosphäre, die Ionosphäre, besteht aus freien Elektronen und Ionen, die vor allem durch das Einwirken der Sonnenstrahlung aus neutralen Gasteilchen erzeugt werden. Für die elektromagnetischen Wellen ist die Ionosphäre ein dispersives Medium und beeinflusst daher ihre Laufzeit. Die Laufzeitverzögerung, die die Beobachtungen aller im Mikrowellenbereich operierenden geodätischen Weltraumverfahren innerhalb der Ionosphäre erfahren, ist in erster Näherung proportional zum sogenannten Gesamtelektronengehalt entlang des Strahlenwegs (Slant Total Electron Content - STEC). Um den Einfluss der Ionosphäre zu kompensieren, müssen die Messungen auf zwei verschiedenen Frequenzen erfolgen. Auf diese Weise kann aber auch Information über die Ionosphärenparameter (in Form von STEC-Werten) gewonnen werden, woraus Modelle der Ionosphäre erstellt werden können. Verschiedene geodätische Weltraumverfahren erlauben die Messung und Modellierung der Ionosphäre: GPS-Beobachtungen, Satellitenaltimetrie-Missionen wie TOPEX/Poseidon und Jason, die Radiointerferometrie auf langen Basislinien (Very Long Baseline Interferometry, VLBI). Die einzelnen Verfahren haben dabei spezifische Charakteristika, die die Qualität der daraus erzeugten Ionosphärenmodelle beeinflussen. Eine Analyse der Differenzen zwischen diesen Modellen macht es möglich auf Systematiken in den verschiedenen geodätischen Messverfahren zu schließen und ein verbessertes Modell der Ionosphäre zu erstellen. Bei der Modellierung kann auf Grund der großen Anzahl der Beobachtungen eine Ausgleichung nach der Methode der kleinsten Quadrate (Gauß-Markoff Modell) durchgeführt werden. Damit kann auch eine Kombination der Ergebnisse der unterschiedlichen Verfahren auf Basis der Normalgleichungen durch Addieren der entsprechenden Matrizen erfolgen. So kann ein Ionosphärenmodell geschätzt werden, das auf unterschiedlichen geodätischen Weltraumverfahren beruht und durch obige Methode ermittelt wird. Das integrierte Modell der Ionosphäre sollte die Vorteile der einzelnen Techniken am besten ausnutzen und die Nachteile weitestgehend eliminieren und demgemäß über eine höhere Genauigkeit und Zuverlässigkeit verfügen als die bisherigen Ergebnisse einzelner Verfahren.
Der oberste Teil der Erdatmosphäre, die Ionosphäre, besteht aus freien Elektronen und Ionen, die vor allem durch das Einwirken der Sonnenstrahlung aus neutralen Gasteilchen erzeugt werden. Für die elektromagnetischen Wellen ist die Ionosphäre ein dispersives Medium und beeinflusst daher ihre Laufzeit. Die Laufzeitverzögerung, die die Beobachtungen aller im Mikrowellenbereich operierenden geodätischen Weltraumverfahren innerhalb der Ionosphäre erfahren, ist in erster Näherung proportional zum sogenannten Gesamtelektronengehalt entlang des Strahlenwegs (Slant Total Electron Content - STEC). Um den Einfluss der Ionosphäre zu kompensieren, müssen die Messungen auf zwei verschiedenen Frequenzen erfolgen. Auf diese Weise kann aber auch Information über die Ionosphärenparameter (in Form von STEC-Werten) gewonnen werden, woraus Modelle der Ionosphäre erstellt werden können. Verschiedene geodätische Weltraumverfahren erlauben die Messung und Modellierung der Ionosphäre: GPS-Beobachtungen, Satellitenaltimetrie-Missionen wie TOPEX/Poseidon und Jason, die Radiointerferometrie auf langen Basislinien (Very Long Baseline Interferometry, VLBI). Die einzelnen Verfahren haben dabei spezifische Charakteristika, die die Qualität der daraus erzeugten Ionosphärenmodelle beeinflussen. Eine Analyse der Differenzen zwischen diesen Modellen macht es möglich auf Systematiken in den verschiedenen geodätischen Messverfahren zu schließen und ein verbessertes Modell der Ionosphäre zu erstellen. Bei der Modellierung kann auf Grund der großen Anzahl der Beobachtungen eine Ausgleichung nach der Methode der kleinsten Quadrate (Gauß-Markoff Modell) durchgeführt werden. Damit kann auch eine Kombination der Ergebnisse der unterschiedlichen Verfahren auf Basis der Normalgleichungen durch Addieren der entsprechenden Matrizen erfolgen. So kann ein Ionosphärenmodell geschätzt werden, das auf unterschiedlichen geodätischen Weltraumverfahren beruht und durch obige Methode ermittelt wird. Das integrierte Modell der Ionosphäre sollte die Vorteile der einzelnen Techniken am besten ausnutzen und die Nachteile weitestgehend eliminieren und demgemäß über eine höhere Genauigkeit und Zuverlässigkeit verfügen als die bisherigen Ergebnisse einzelner Verfahren.
Simulationen für die neue Generation von VLBI-Systemen
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2009
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Begutachter: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Die geodätische VLBI (Very Long Baseline Interferometry) ist das wichtigste Verfahren zur Bestimmung der Rotationsgeschwindigkeit der Erde, der Parameter für Nutation und Präzession und des himmelsfesten Referenzrahmens (Celestial Reference Frame, CRF), der durch die Positionen von extragalaktischen Radioquellen realisiert wird. Aufgrund der immer höheren Anforderungen an Genauigkeit, Zuverlässigkeit und zeitliche Auflösung der geodätischen Parameter muss der International VLBI Service for Geodesy and Astrometry (IVS) das Design seiner Netze und seine Beobachtungsstrategien überdenken. Dazu wurde im Oktober 2003 vom IVS die Working Group 3 (WG3) "VLBI2010" ins Leben gerufen. Als Ergebnis des Abschlussberichts der WG3 (Niell et al., 2005) wurde das VLBI2010-Komitee (V2C) als permanente Institution des IVS eingerichtet, um die Entwicklung der Hardware, Software und der Beobachtungsstrategien für die nächste Generation der VLBI-Beobachtungssysteme voranzutreiben.
In der vorliegenden Arbeit werden, wie vom IVS angeregt, gründliche, systematische Simulationen durchgeführt. Herzstück der Simulationen ist ein Monte-Carlo-Simulator (MCS), der die drei größten stochastischen Fehleranteile des VLBI-Systems berücksichtigt. Dabei wird die troposphärische Laufzeitverzögerung mit einem Turbulenzmodell simuliert, die VLBI-Stationsuhren mittels random walk plus integrated random walk und der Anteil der Ungenauigkeit der Beobachtungseinrichtung wird durch weißes Rauschen simuliert. Der MCS wurde direkt in das VLBI-Auswerteprogramm OCCAM (Titov et al., 2004) integriert und liefert somit den Beobachtungsvektor o - c (observed minus computed). Eine Vielzahl an verschiedenen Beobachtungsszenarien wurden mit dem Programm SKED (Vandenberg, 1999), und mit dem uniform sky Algorithmus erstellt. Die Ergebnisse (formale Fehler der Parameter) aus den mit der modifizierten Version der Auswertesoftware, OCCAM 6.2 SIM, ausgewerteten VLBI sessions zeigen, dass der feuchte Anteil der Atmosphäre in der VLBI-Auswertung nicht ausreichend genau a priori modelliert bzw. geschätzt werden kann und somit der limitierende Faktor der VLBI ist. Für die VLBI-Stationsuhr gilt, dass die Allan Standard Deviation (ASD) von 1*10-14@50 min für die Zeitübertragung auf das VLBI-System ausreichend ist. Eine Antennendrehgeschwindigkeit von 12 °/s in Azimut und 3.5 °/s in Elevation ist notwendig, um sehr dichte Beobachtungspläne erstellen und so die geforderte Genauigkeit von 1 mm/Jahr für das VLBI2010-System erreichen zu können.
Die geodätische VLBI (Very Long Baseline Interferometry) ist das wichtigste Verfahren zur Bestimmung der Rotationsgeschwindigkeit der Erde, der Parameter für Nutation und Präzession und des himmelsfesten Referenzrahmens (Celestial Reference Frame, CRF), der durch die Positionen von extragalaktischen Radioquellen realisiert wird. Aufgrund der immer höheren Anforderungen an Genauigkeit, Zuverlässigkeit und zeitliche Auflösung der geodätischen Parameter muss der International VLBI Service for Geodesy and Astrometry (IVS) das Design seiner Netze und seine Beobachtungsstrategien überdenken. Dazu wurde im Oktober 2003 vom IVS die Working Group 3 (WG3) "VLBI2010" ins Leben gerufen. Als Ergebnis des Abschlussberichts der WG3 (Niell et al., 2005) wurde das VLBI2010-Komitee (V2C) als permanente Institution des IVS eingerichtet, um die Entwicklung der Hardware, Software und der Beobachtungsstrategien für die nächste Generation der VLBI-Beobachtungssysteme voranzutreiben.
In der vorliegenden Arbeit werden, wie vom IVS angeregt, gründliche, systematische Simulationen durchgeführt. Herzstück der Simulationen ist ein Monte-Carlo-Simulator (MCS), der die drei größten stochastischen Fehleranteile des VLBI-Systems berücksichtigt. Dabei wird die troposphärische Laufzeitverzögerung mit einem Turbulenzmodell simuliert, die VLBI-Stationsuhren mittels random walk plus integrated random walk und der Anteil der Ungenauigkeit der Beobachtungseinrichtung wird durch weißes Rauschen simuliert. Der MCS wurde direkt in das VLBI-Auswerteprogramm OCCAM (Titov et al., 2004) integriert und liefert somit den Beobachtungsvektor o - c (observed minus computed). Eine Vielzahl an verschiedenen Beobachtungsszenarien wurden mit dem Programm SKED (Vandenberg, 1999), und mit dem uniform sky Algorithmus erstellt. Die Ergebnisse (formale Fehler der Parameter) aus den mit der modifizierten Version der Auswertesoftware, OCCAM 6.2 SIM, ausgewerteten VLBI sessions zeigen, dass der feuchte Anteil der Atmosphäre in der VLBI-Auswertung nicht ausreichend genau a priori modelliert bzw. geschätzt werden kann und somit der limitierende Faktor der VLBI ist. Für die VLBI-Stationsuhr gilt, dass die Allan Standard Deviation (ASD) von 1*10-14@50 min für die Zeitübertragung auf das VLBI-System ausreichend ist. Eine Antennendrehgeschwindigkeit von 12 °/s in Azimut und 3.5 °/s in Elevation ist notwendig, um sehr dichte Beobachtungspläne erstellen und so die geforderte Genauigkeit von 1 mm/Jahr für das VLBI2010-System erreichen zu können.
Mosaik von Kamerun Wolken- und Wolkenschattendetektion und Radiometrische Kalibrierung
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2009
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Kurzfassung/Abstract
Die Diplomarbeit befasst sich mit der Datenvorverarbeitung für ein Waldmonitoring-System, welches von der European Space Agency (ESA) im Rahmen des REDD - Programms (Reducing Emissions from Deforestation and Degradation) in Auftrag gegeben wurde. Aufgabenstellung des Projektes ist die Erfassung sämtlicher abgeholzter und degradierter Waldgebiete Kameruns zwischen den Jahren 1990 und 2000 sowie 2000 und 2005. Als Datengrundlage stehen Landsat und Disaster Monitoring Constellation (DMC) Daten zur Verfügung. Die vorliegende Arbeit ist in zwei Arbeitsschritte gegliedert, die Detektion von Wolken und Wolkenschatten einerseits und die relative radiometrische Kalibrierung andererseits. Für die Erstellung von Wolkenmasken wurde ein Spectral Separation Index (SSI) herangezogen, der als Inputparameter das grüne und nah infrarote Band einbezieht.
Aufgrund der Tatsache, dass sich die Wolken, abgesehen von einigen besiedelten Flächen, sehr gut von der Landbedeckung Kameruns spektral trennen lassen, ist diese Methode zur Wolkendetektion ausreichend. Weit schwieriger ist es hingegen, Wolkenschatten spektral zu erkennen, da Gewässer und Hänge in Schattenlage ähnlich reflektieren. Aus diesem Grund wurde eine Methode entwickelt, welche spektral und geometrisch abgeleitete Schattenmasken kombiniert. Erstere besteht aus einer leicht abgeänderten Version desselben SSI, der bereits zur Dektektion von Wolken verwendet wurde. Für letztere sind neben Sonnenstand und digitalem Geländemodell (DGM) die Wolkenhöhen notwendig, die aus einem Korrelationsverfahren mit der Geländehöhe approximiert wurden. Der große Vorteil dieses Ansatzes zur Detektion von Wolkenschatten ist, dass die Zahl der fälschlicherweise als Wolkenschatten detektierten Pixel stark vermindert wird. Basierend auf einen Datensatz mit ausmaskierten Wolken und Wolkenschatten wurden nun verschiedene Methoden zur radiometrischen Kalibrierung getestet, welche sich in drei Hauptgruppen (1) statistische Methoden, (2) Histogram Matching (HM) und (3) Regression untergliedern lassen. Eine Evaluierung der Ergebnisse aufgrund von Jeffries-Matusita (JM) Distanzen hat ergeben, dass für den verwendeten Datensatz HM und lineare Regression die besten Ergebnisse liefern.
Die Diplomarbeit befasst sich mit der Datenvorverarbeitung für ein Waldmonitoring-System, welches von der European Space Agency (ESA) im Rahmen des REDD - Programms (Reducing Emissions from Deforestation and Degradation) in Auftrag gegeben wurde. Aufgabenstellung des Projektes ist die Erfassung sämtlicher abgeholzter und degradierter Waldgebiete Kameruns zwischen den Jahren 1990 und 2000 sowie 2000 und 2005. Als Datengrundlage stehen Landsat und Disaster Monitoring Constellation (DMC) Daten zur Verfügung. Die vorliegende Arbeit ist in zwei Arbeitsschritte gegliedert, die Detektion von Wolken und Wolkenschatten einerseits und die relative radiometrische Kalibrierung andererseits. Für die Erstellung von Wolkenmasken wurde ein Spectral Separation Index (SSI) herangezogen, der als Inputparameter das grüne und nah infrarote Band einbezieht.
Aufgrund der Tatsache, dass sich die Wolken, abgesehen von einigen besiedelten Flächen, sehr gut von der Landbedeckung Kameruns spektral trennen lassen, ist diese Methode zur Wolkendetektion ausreichend. Weit schwieriger ist es hingegen, Wolkenschatten spektral zu erkennen, da Gewässer und Hänge in Schattenlage ähnlich reflektieren. Aus diesem Grund wurde eine Methode entwickelt, welche spektral und geometrisch abgeleitete Schattenmasken kombiniert. Erstere besteht aus einer leicht abgeänderten Version desselben SSI, der bereits zur Dektektion von Wolken verwendet wurde. Für letztere sind neben Sonnenstand und digitalem Geländemodell (DGM) die Wolkenhöhen notwendig, die aus einem Korrelationsverfahren mit der Geländehöhe approximiert wurden. Der große Vorteil dieses Ansatzes zur Detektion von Wolkenschatten ist, dass die Zahl der fälschlicherweise als Wolkenschatten detektierten Pixel stark vermindert wird. Basierend auf einen Datensatz mit ausmaskierten Wolken und Wolkenschatten wurden nun verschiedene Methoden zur radiometrischen Kalibrierung getestet, welche sich in drei Hauptgruppen (1) statistische Methoden, (2) Histogram Matching (HM) und (3) Regression untergliedern lassen. Eine Evaluierung der Ergebnisse aufgrund von Jeffries-Matusita (JM) Distanzen hat ergeben, dass für den verwendeten Datensatz HM und lineare Regression die besten Ergebnisse liefern.
Georeferenzierung des Franziszeischen Katasters im Rahmen des GIS-Steiermark
Institut für Geoinformation, Technische Universität Graz, 2009
Betreuer: Ass.-Prof. Dr. Konrad Rautz
Betreuer: Ass.-Prof. Dr. Konrad Rautz
Kurzfassung/Abstract
Diese Arbeit widmet sich der Erstellung eines Ablaufs für die Georeferenzierung des Franziszeischen Katasters. Nach der Durchführung dieser Schritte soll es möglich sein, den digital entzerrten Kataster in das geographische Informationssystem (GIS) des Landes Steiermark einzufügen. Zur Erstellung dieser Schritte dienen vier Testgebiete. Ziel ist es, anhand dieses Ablaufs sämtliche Teilblätter zu einer Gesamtkarte zusammenzufügen und anschließend in das Koordinatensystem UTM 33N zu transformieren. Dies macht es möglich reale Distanzen zu messen, so wie sie in der Natur vorliegen. Der Franziszeische Kataster wurde in den Jahren 1817 bis 1861 für die österreichisch-ungarische Monarchie aufgenommen und hatte das Ziel, eine gerechte Grundsteuerberechnung zu ermöglichen. Dieser Kataster beinhaltet ca. 8.600 Teilblätter für das Bundesland Steiermark und wurde bereits vom Steiermärkischen Landesarchiv digitalisiert.
Diese Arbeit widmet sich der Erstellung eines Ablaufs für die Georeferenzierung des Franziszeischen Katasters. Nach der Durchführung dieser Schritte soll es möglich sein, den digital entzerrten Kataster in das geographische Informationssystem (GIS) des Landes Steiermark einzufügen. Zur Erstellung dieser Schritte dienen vier Testgebiete. Ziel ist es, anhand dieses Ablaufs sämtliche Teilblätter zu einer Gesamtkarte zusammenzufügen und anschließend in das Koordinatensystem UTM 33N zu transformieren. Dies macht es möglich reale Distanzen zu messen, so wie sie in der Natur vorliegen. Der Franziszeische Kataster wurde in den Jahren 1817 bis 1861 für die österreichisch-ungarische Monarchie aufgenommen und hatte das Ziel, eine gerechte Grundsteuerberechnung zu ermöglichen. Dieser Kataster beinhaltet ca. 8.600 Teilblätter für das Bundesland Steiermark und wurde bereits vom Steiermärkischen Landesarchiv digitalisiert.
Qualitätsverbesserung im deutschen Liegenschaftskataster
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2010
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Die Qualität des österreichischen Liegenschaftskatasters entspricht nicht durchgehend den hohen Anforderungen, die in seiner Funktion als Geobasisinformationssystem an ihn gestellt werden. Es ist eine der Herausforderungen des Bundesamtes für Eich- und Vermessungswesen, die Qualität des Katasters zu verbessern. Ziel der vorliegenden Arbeit ist es, die in den Ländern der Bundesrepublik Deutschland durchgeführten Maßnahmen zur Qualitätsverbesserung der Liegenschaftskataster zu untersuchen und zu beurteilen, ob diese Maßnahmen für eine Hebung der Qualität des österreichischen Katasters prinzipiell tauglich sind. Da die Liegenschaftskataster in der BRD dem österreichischen strukturell im allgemeinen sehr ähnlich sind, ist ein solcher Vergleich von praktischem Interesse. Die Arbeit behandelt eingangs Konzepte und Begriffe des deutschen Liegenschaftskatasters. Des weiteren wird der Qualitätsbegriff im Kontext der Fragestellung erörtert. Kernstück der Arbeit bildet die nach Themenkomplexen gegliederte Untersuchung der in den deutschen Bundesländern getroffenen Maßnahmen zur Qualitätsverbesserung.
Abschließend erfolgt ein Vergleich der Situation des österreichischen mit den deutschen Liegenschaftskatastern und eine Bewertung der untersuchten Maßnahmen hinsichtlich ihrer Anwendbarkeit in Österreich. Es wird der Schluss gezogen, dass eine Orientierung an den deutschen Regelungen und Maßnahmen in mehreren Punkten sinnvoll wäre und bestehenden Forderungen österreichischer Fachleute entspräche. Eine Intensivierung der Zusammenarbeit und des Erfahrungsaustauschs der Vermessungsverwaltungen über die Staatsgrenzen hinweg scheint jedenfalls empfehlenswert.
Die Qualität des österreichischen Liegenschaftskatasters entspricht nicht durchgehend den hohen Anforderungen, die in seiner Funktion als Geobasisinformationssystem an ihn gestellt werden. Es ist eine der Herausforderungen des Bundesamtes für Eich- und Vermessungswesen, die Qualität des Katasters zu verbessern. Ziel der vorliegenden Arbeit ist es, die in den Ländern der Bundesrepublik Deutschland durchgeführten Maßnahmen zur Qualitätsverbesserung der Liegenschaftskataster zu untersuchen und zu beurteilen, ob diese Maßnahmen für eine Hebung der Qualität des österreichischen Katasters prinzipiell tauglich sind. Da die Liegenschaftskataster in der BRD dem österreichischen strukturell im allgemeinen sehr ähnlich sind, ist ein solcher Vergleich von praktischem Interesse. Die Arbeit behandelt eingangs Konzepte und Begriffe des deutschen Liegenschaftskatasters. Des weiteren wird der Qualitätsbegriff im Kontext der Fragestellung erörtert. Kernstück der Arbeit bildet die nach Themenkomplexen gegliederte Untersuchung der in den deutschen Bundesländern getroffenen Maßnahmen zur Qualitätsverbesserung.
Abschließend erfolgt ein Vergleich der Situation des österreichischen mit den deutschen Liegenschaftskatastern und eine Bewertung der untersuchten Maßnahmen hinsichtlich ihrer Anwendbarkeit in Österreich. Es wird der Schluss gezogen, dass eine Orientierung an den deutschen Regelungen und Maßnahmen in mehreren Punkten sinnvoll wäre und bestehenden Forderungen österreichischer Fachleute entspräche. Eine Intensivierung der Zusammenarbeit und des Erfahrungsaustauschs der Vermessungsverwaltungen über die Staatsgrenzen hinweg scheint jedenfalls empfehlenswert.
Solution approaches for a Service Technician Routing and Scheduling Problem in the context of a public utility company in Carinthia, Austria
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2010
Betreuer: FH-Prof. Dr. Gernot Paulus (FH Kärnten), Dr. Karl-Heinrich Anders (FH Kärnten), Dr. Günter Kiechle (Salzburg Research Forschungsgesellschaft), Dipl.-Ing. (FH) Norbert Fischer (KELAG Wärme GmbH)
Betreuer: FH-Prof. Dr. Gernot Paulus (FH Kärnten), Dr. Karl-Heinrich Anders (FH Kärnten), Dr. Günter Kiechle (Salzburg Research Forschungsgesellschaft), Dipl.-Ing. (FH) Norbert Fischer (KELAG Wärme GmbH)
Kurzfassung/Abstract
Diese Master Arbeit (Diplomarbeit) beschäftigt sich mit der Frage nach Nützlichkeit und Anwendbarkeit von Tourenoptimierung für eine Problemstellung innerhalb eines Energieversorgungsunternehmens (Fernwärme). Dessen Servicetechniker müssen in regelmäßigen Abständen die Zählerstände bei den Kunden ablesen. Genau dieser Ablauf wird in der Arbeit beleuchtet. Dieses Problem der Routenplanung entspricht zum Teil dem Traveling Salesman Problem und bis zu einem gewissen Grad auch dem Vehicle Routing Problem welche hier vorgestellt werden. Mögliche Lösungsansätze werden unterteilt in Heuristiken, Meta-Heuristiken und exakte Lösungsansätze.
Die Master Arbeit beginnt mit Erläuterungen über den theoretischen Hintergrund. Außerdem wird der - sehr wichtige - Teil der Datenerhebung detailliert beschrieben. Die Daten wurden während einer Ableseperiode erhoben. Danach wurden sie entsprechend bearbeitet um sie dann mit Optimierungswerkzeugen verwenden zu können. Es werden drei verschiedene Werkzeuge vorgestellt. Das erstere ist die Implementierung einer Konstruktionsheuristik und einer Verbesserungsheuristik in Python. Zwei weitere Werkzeuge, nämlich der ZeroRoutenPlaner (online verfügbar) und Microsoft MapPoint 2006 werden vorgestellt um die Qualität der heuristischen Ergebnisse vergleichen zu können. Eines der Ergebnisse ist, dass es möglich ist die erhobenen Daten mit den vorgestellten Optimierungsprogrammen zu untersuchen. Außerdem enthalten die erhobenen Daten eindeutig Optimierungspotential. Das festgestellte Ausmaß der Einsparungsmöglichkeiten ist jedoch nicht so umfangreich, dass es den benötigten Aufwand rechtfertigt. Natürlich hängt die Qualität der Ergebnisse mit dem Optimierungstool zusammen. Dies bedeutet zum Beispiel, dass die Heuristiken die Ergebnisse zwar in kürzester Rechenzeit ermitteln, dafür allerdings die Qualität eher mittelwertig ist. Mappoint hingegen liefert bessere Ergebnisse jedoch benötigt die Software dafür auch mehr Rechenzeit.
Diese Master Arbeit (Diplomarbeit) beschäftigt sich mit der Frage nach Nützlichkeit und Anwendbarkeit von Tourenoptimierung für eine Problemstellung innerhalb eines Energieversorgungsunternehmens (Fernwärme). Dessen Servicetechniker müssen in regelmäßigen Abständen die Zählerstände bei den Kunden ablesen. Genau dieser Ablauf wird in der Arbeit beleuchtet. Dieses Problem der Routenplanung entspricht zum Teil dem Traveling Salesman Problem und bis zu einem gewissen Grad auch dem Vehicle Routing Problem welche hier vorgestellt werden. Mögliche Lösungsansätze werden unterteilt in Heuristiken, Meta-Heuristiken und exakte Lösungsansätze.
Die Master Arbeit beginnt mit Erläuterungen über den theoretischen Hintergrund. Außerdem wird der - sehr wichtige - Teil der Datenerhebung detailliert beschrieben. Die Daten wurden während einer Ableseperiode erhoben. Danach wurden sie entsprechend bearbeitet um sie dann mit Optimierungswerkzeugen verwenden zu können. Es werden drei verschiedene Werkzeuge vorgestellt. Das erstere ist die Implementierung einer Konstruktionsheuristik und einer Verbesserungsheuristik in Python. Zwei weitere Werkzeuge, nämlich der ZeroRoutenPlaner (online verfügbar) und Microsoft MapPoint 2006 werden vorgestellt um die Qualität der heuristischen Ergebnisse vergleichen zu können. Eines der Ergebnisse ist, dass es möglich ist die erhobenen Daten mit den vorgestellten Optimierungsprogrammen zu untersuchen. Außerdem enthalten die erhobenen Daten eindeutig Optimierungspotential. Das festgestellte Ausmaß der Einsparungsmöglichkeiten ist jedoch nicht so umfangreich, dass es den benötigten Aufwand rechtfertigt. Natürlich hängt die Qualität der Ergebnisse mit dem Optimierungstool zusammen. Dies bedeutet zum Beispiel, dass die Heuristiken die Ergebnisse zwar in kürzester Rechenzeit ermitteln, dafür allerdings die Qualität eher mittelwertig ist. Mappoint hingegen liefert bessere Ergebnisse jedoch benötigt die Software dafür auch mehr Rechenzeit.
Terrestrische Laserscanner zur Erfassung historischer Räume
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2008
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
Die Denkmalpflege hat in Österreich eine lange Tradition. Die Erhaltung und Erforschung von Baudenkmälern erfordert eine genaue Dokumentation in Form von Plangrundlagen, die unter anderem durch detaillierte Vermessung hergestellt werden können. Die vorliegende Arbeit beschäftigt sich mit der Frage ob terrestrische Laserscanner für die Erfassung historischer Räume nützlich sind. Die Problemstellung wird am Beispiel eines der so genannten Weißgoldzimmer von Schloss Schönbrunn untersucht. Die Datenerfassung erfolgte einerseits über direkte Polarpunktmessung mit einem Tachymeter und photogrammetrische Auswertung digitaler Aufnahmen. Andererseits wurde der Raum mit zwei terrestrischen Laserscannern unterschiedlicher Hersteller gescannt. Die aus den einzelnen Messverfahren abgeleitete Raumgeometrie wird anhand der, aus den aufgenommenen Daten extrahierten Kanten verglichen. Im Falle der Tachymetrie werden die kantendefinierenden Punkte direkt eingemessen.
Aus den Digitalphotos werden die Kantenpunkte mittels photogrammetrischer Bildauswertung gewonnen. Zur Kantenmodellierung aus Laserscannerdaten wird eine Methode angewendet, die beim Auffinden von Bruchkanten aus Airborne Laserscannerdaten schon erfolgreich eingesetzt wurde [Briese, 2004]. Nach einer Anpassung dieser Methode an die speziellen Erfordernisse des terrestrischen Laserscannings, können alle Kanten mit unterschiedlicher Güte abgeleitet werden. In der Gegenüberstellung der Kantenabstände treten die größten Differenzen bei der Sprungkante auf (>6cm). Die zum Vergleich ausgewählte Kante besteht allerdings aus mehreren Zierelementen, was ihre eindeutige Festlegung unmöglich machte. Bei der Gegenüberstellung eines Laserscanners mit Tachymetrie oder Photogrammetrie ergeben sich an den Boden/Wand Verschneidungen teilweise Abstände von 4-5cm. Die Ursache für diese großen Abweichungen liegt in der ungenauen Definition dieser Kanten. Die beste Übereinstimmung aller Verfahren mit Differenzen von ~2cm zeigt sich an den Wandverschneidungen und den Kanten der Sockelleiste. In diesen Bereichen sind Raumkanten und angrenzende Flächen gut definiert, daher sind die Kanten in den Messdaten eindeutig zu identifizieren. Es ist festzuhalten, dass terrestrische Laserscanner, in Kombination mit der hier angewandten Methode, für die Vermessung historischer Räumlichkeiten geeignet sind, insbesondere wenn diese klar definierte Strukturlinien aufweisen.
Die Denkmalpflege hat in Österreich eine lange Tradition. Die Erhaltung und Erforschung von Baudenkmälern erfordert eine genaue Dokumentation in Form von Plangrundlagen, die unter anderem durch detaillierte Vermessung hergestellt werden können. Die vorliegende Arbeit beschäftigt sich mit der Frage ob terrestrische Laserscanner für die Erfassung historischer Räume nützlich sind. Die Problemstellung wird am Beispiel eines der so genannten Weißgoldzimmer von Schloss Schönbrunn untersucht. Die Datenerfassung erfolgte einerseits über direkte Polarpunktmessung mit einem Tachymeter und photogrammetrische Auswertung digitaler Aufnahmen. Andererseits wurde der Raum mit zwei terrestrischen Laserscannern unterschiedlicher Hersteller gescannt. Die aus den einzelnen Messverfahren abgeleitete Raumgeometrie wird anhand der, aus den aufgenommenen Daten extrahierten Kanten verglichen. Im Falle der Tachymetrie werden die kantendefinierenden Punkte direkt eingemessen.
Aus den Digitalphotos werden die Kantenpunkte mittels photogrammetrischer Bildauswertung gewonnen. Zur Kantenmodellierung aus Laserscannerdaten wird eine Methode angewendet, die beim Auffinden von Bruchkanten aus Airborne Laserscannerdaten schon erfolgreich eingesetzt wurde [Briese, 2004]. Nach einer Anpassung dieser Methode an die speziellen Erfordernisse des terrestrischen Laserscannings, können alle Kanten mit unterschiedlicher Güte abgeleitet werden. In der Gegenüberstellung der Kantenabstände treten die größten Differenzen bei der Sprungkante auf (>6cm). Die zum Vergleich ausgewählte Kante besteht allerdings aus mehreren Zierelementen, was ihre eindeutige Festlegung unmöglich machte. Bei der Gegenüberstellung eines Laserscanners mit Tachymetrie oder Photogrammetrie ergeben sich an den Boden/Wand Verschneidungen teilweise Abstände von 4-5cm. Die Ursache für diese großen Abweichungen liegt in der ungenauen Definition dieser Kanten. Die beste Übereinstimmung aller Verfahren mit Differenzen von ~2cm zeigt sich an den Wandverschneidungen und den Kanten der Sockelleiste. In diesen Bereichen sind Raumkanten und angrenzende Flächen gut definiert, daher sind die Kanten in den Messdaten eindeutig zu identifizieren. Es ist festzuhalten, dass terrestrische Laserscanner, in Kombination mit der hier angewandten Methode, für die Vermessung historischer Räumlichkeiten geeignet sind, insbesondere wenn diese klar definierte Strukturlinien aufweisen.
Visualisierung von Geoinformation für Anwendungen im Katastrophenschutz
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2009
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Betreuer: Univ.-Prof. Dr. Mathias Schardt
Kurzfassung/Abstract
Diese Arbeit befasst sich mit der Entwicklung des Web 2.0 basierten Visualisierungsprogramms ASSIST GeoView, mit integriertem WebGIS und einem System zur Übertragung von Nachrichten zwischen Server und Client. Die Grundlage liefert das Projekt ASSIST (Alpine Safety, Security & Informational Service and Technologies), welches sich mit dem Aufbau eines Informations- und Sicherheitssystems im Bereich der Risikovorhersage und des Katastrophenschutzes in alpinen Regionen beschäftigt hat. Die im Zusammenhang mit dieser Arbeit verwendeten Demonstrationsdaten wurden von Joanneum Research zur Verfügung gestellt und beziehen sich auf den Westen von Tirol. Neben der Darstellung der raumbezogenen Daten steht die Lösung von Schnittstellenproblemen zwischen dem UMN-Mapserver und anderen Visualisierungsprogrammen im Vordergrund. In diesem Zusammenhang wird die Verwendung von OGC-konformen Standards, wie WMS und WFS, aber auch GeoRSS und KML, in Kombination mit einer PostgreSQL bzw. PostGIS-Datenbank, untersucht.
Das Exportieren dieser Daten wird für die Anwendungen Google Maps, Google Earth, Bing Maps und OpenLayers demonstriert.
Diese Arbeit befasst sich mit der Entwicklung des Web 2.0 basierten Visualisierungsprogramms ASSIST GeoView, mit integriertem WebGIS und einem System zur Übertragung von Nachrichten zwischen Server und Client. Die Grundlage liefert das Projekt ASSIST (Alpine Safety, Security & Informational Service and Technologies), welches sich mit dem Aufbau eines Informations- und Sicherheitssystems im Bereich der Risikovorhersage und des Katastrophenschutzes in alpinen Regionen beschäftigt hat. Die im Zusammenhang mit dieser Arbeit verwendeten Demonstrationsdaten wurden von Joanneum Research zur Verfügung gestellt und beziehen sich auf den Westen von Tirol. Neben der Darstellung der raumbezogenen Daten steht die Lösung von Schnittstellenproblemen zwischen dem UMN-Mapserver und anderen Visualisierungsprogrammen im Vordergrund. In diesem Zusammenhang wird die Verwendung von OGC-konformen Standards, wie WMS und WFS, aber auch GeoRSS und KML, in Kombination mit einer PostgreSQL bzw. PostGIS-Datenbank, untersucht.
Das Exportieren dieser Daten wird für die Anwendungen Google Maps, Google Earth, Bing Maps und OpenLayers demonstriert.
APOS - Der GPS-Echtzeitpositionierungsdienst des Bundesamts für Eich- und Vermessungswesen - Analyse der Netzfunktionalität und der erzielbaren Positionierungsgenauigkeit
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2010
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Das Bundesamt für Eich- u. Vermessungswesen setzt seit dem Jahr 2003 auf die satellitengestütze Punktbestimmung mit Hilfe seines eigenen Positionierungsdienstes APOS (Austrian Positioning Service). Mit diesem System werden auch die Punkte des österreichischen Festpunktfeldes übermessen und flächendeckend ETRS Koordinaten bestimmt.
Diese Diplomarbeit befasst sich mit der satellitengestützten Punktbestimmung in Echtzeit. Dazu werden Satellitenpositionierungsdienste, Verfahren zur Punktbestimmung mit Satelliten und darauf einwirkende Fehlereinflüsse vorgestellt.
Mit Hilfe einer vom BEV zur Verfügung gestellten Messdatenbank wurde versucht, mögliche Gründe für zu große Koordinatendifferenzen von einem berechneten Mittelwert aus Mehrfachmessungen, zu finden. Hierzu standen die für den Nutzer am Rover angezeigten Qualitätsparameter, die ebenfalls in der Datenbank eingetragen sind, zur Verfügung. Weiters wurde auch versucht eine Verbindung zwischen Koordinatenabweichungen und am Zentralserver verspeicherten Ausfallsinformationen der APOS-Referenzstationen zu finden. Im Zuge der Analyse wurde auch die erreichbare Positionierungsgenauigkeit des Systems weiter untersucht.
Nach Abschluss der Analyse konnte eine hohe Anzahl an zur Messung verwendeten Satelliten als Indiz für die Zuverlässigkeit der Messung identifiziert werden. Die am Rover angezeigten Qualitätsparameter korrelieren dagegen kaum mit größeren oder kleineren Koordinatendifferenzen. Aus der Untersuchung der Referenzstationsdaten könnte ein Ausfall der Satellitenfixierung als Indiz für schlechtere Messungen gewonnen werden. Unterbrechungen der Datenaufnahme an den Referenzstationen treten zwar des Öfteren auf, haben aber nicht immer Messungen mit auffallenden Koordinatenabweichungen zur Folge.
Im Allgemeinen liegen die Messungen der Messdatenbank aber im vom BEV angegebenen Genauigkeitsbereich des Systems APOS.
Das Bundesamt für Eich- u. Vermessungswesen setzt seit dem Jahr 2003 auf die satellitengestütze Punktbestimmung mit Hilfe seines eigenen Positionierungsdienstes APOS (Austrian Positioning Service). Mit diesem System werden auch die Punkte des österreichischen Festpunktfeldes übermessen und flächendeckend ETRS Koordinaten bestimmt.
Diese Diplomarbeit befasst sich mit der satellitengestützten Punktbestimmung in Echtzeit. Dazu werden Satellitenpositionierungsdienste, Verfahren zur Punktbestimmung mit Satelliten und darauf einwirkende Fehlereinflüsse vorgestellt.
Mit Hilfe einer vom BEV zur Verfügung gestellten Messdatenbank wurde versucht, mögliche Gründe für zu große Koordinatendifferenzen von einem berechneten Mittelwert aus Mehrfachmessungen, zu finden. Hierzu standen die für den Nutzer am Rover angezeigten Qualitätsparameter, die ebenfalls in der Datenbank eingetragen sind, zur Verfügung. Weiters wurde auch versucht eine Verbindung zwischen Koordinatenabweichungen und am Zentralserver verspeicherten Ausfallsinformationen der APOS-Referenzstationen zu finden. Im Zuge der Analyse wurde auch die erreichbare Positionierungsgenauigkeit des Systems weiter untersucht.
Nach Abschluss der Analyse konnte eine hohe Anzahl an zur Messung verwendeten Satelliten als Indiz für die Zuverlässigkeit der Messung identifiziert werden. Die am Rover angezeigten Qualitätsparameter korrelieren dagegen kaum mit größeren oder kleineren Koordinatendifferenzen. Aus der Untersuchung der Referenzstationsdaten könnte ein Ausfall der Satellitenfixierung als Indiz für schlechtere Messungen gewonnen werden. Unterbrechungen der Datenaufnahme an den Referenzstationen treten zwar des Öfteren auf, haben aber nicht immer Messungen mit auffallenden Koordinatenabweichungen zur Folge.
Im Allgemeinen liegen die Messungen der Messdatenbank aber im vom BEV angegebenen Genauigkeitsbereich des Systems APOS.
Entwicklung eines Kalman-Filters zur optimalen Positionsschätzung langsam bewegter Objekte
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2010
Betreuer: Prof. Dipl.-Ing. Dr.-Ing. Andreas Eichhorn
Betreuer: Prof. Dipl.-Ing. Dr.-Ing. Andreas Eichhorn
Kurzfassung/Abstract
Diese Diplomarbeit behandelt die Entwicklung und Erprobung eines kartenunabhängigen Algorithmus zur autonomen, dreidimensionalen Positionierung von langsam bewegten Objekten im Freien (speziell im innerstädtischen Gebiet) und in Gebäuden. Zur optimalen ebenen Positionsschätzung enthält der Algorithmus als zentrales Element ein zeitdiskretes Kalman-Filter, das absolute und relative Positionsdaten von Messsensoren (GPS Empfänger Garmin eTrex Summit, digitaler magnetischer Kompass Honeywell HMR 3000, Pedometer und Kreisel mit magnetischem Kompass GyroDRM) mit einem kausal modifizierten kinematischen Bewegungsmodell verknüpft. Zusätzliche Kriterien bzw.
alternative Strategien, die den Zustand des Filters und des Fußgängers sowie die aktuelle Verfügbarkeit der Signale der Messsensoren berücksichtigen, steigern die Genauigkeit und Zuverlässigkeit.
Zur Ermittlung der Höhe wird der Ansatz eines Kalman-Filters verwendet, das den mit dem Digitalbarometer Vaisala PTB 220 gemessenen, sprunghaften Verlauf der Höhe "glättet". Neben der Bestimmung der 3D-Position (z.B. für die Zuordnung eines Stockwerkes) wird dadurch die korrekte Auswahl von unterschiedlichen Schrittlängen anhand der aktuellen Höhendifferenzen gesteigert.
Anhand von zwei durchgeführten Testmessungen wird der entwickelte, für Echtzeitanwendungen adaptierbare Algorithmus im Postprocessing erprobt und analysiert.
Diese Diplomarbeit behandelt die Entwicklung und Erprobung eines kartenunabhängigen Algorithmus zur autonomen, dreidimensionalen Positionierung von langsam bewegten Objekten im Freien (speziell im innerstädtischen Gebiet) und in Gebäuden. Zur optimalen ebenen Positionsschätzung enthält der Algorithmus als zentrales Element ein zeitdiskretes Kalman-Filter, das absolute und relative Positionsdaten von Messsensoren (GPS Empfänger Garmin eTrex Summit, digitaler magnetischer Kompass Honeywell HMR 3000, Pedometer und Kreisel mit magnetischem Kompass GyroDRM) mit einem kausal modifizierten kinematischen Bewegungsmodell verknüpft. Zusätzliche Kriterien bzw.
alternative Strategien, die den Zustand des Filters und des Fußgängers sowie die aktuelle Verfügbarkeit der Signale der Messsensoren berücksichtigen, steigern die Genauigkeit und Zuverlässigkeit.
Zur Ermittlung der Höhe wird der Ansatz eines Kalman-Filters verwendet, das den mit dem Digitalbarometer Vaisala PTB 220 gemessenen, sprunghaften Verlauf der Höhe "glättet". Neben der Bestimmung der 3D-Position (z.B. für die Zuordnung eines Stockwerkes) wird dadurch die korrekte Auswahl von unterschiedlichen Schrittlängen anhand der aktuellen Höhendifferenzen gesteigert.
Anhand von zwei durchgeführten Testmessungen wird der entwickelte, für Echtzeitanwendungen adaptierbare Algorithmus im Postprocessing erprobt und analysiert.
Untersuchung und praktische Erprobung des terrestrischen Laserscanners FARO Photon 80
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2009
Betreuer: Prof. Dipl.-Ing. Dr.-Ing. Andreas Eichhorn
Betreuer: Prof. Dipl.-Ing. Dr.-Ing. Andreas Eichhorn
Kurzfassung/Abstract
Das terrestrische Laserscanning hat in den letzten Jahren im Vergleich zu den klassischen Vermessungssystemen sehr stark an Bedeutung zugelegt und dringt mehr und mehr in die Bereiche der Ingenieurgeodäsie vor. Stand der Technik ist terrestrisches Laserscanning unter anderem im Tunnelbau, wo Laserscanner zum Beispiel zur Hohlraumaufnahme, Ausbruchsdokumentation, Profilkontrolle oder etwa zur Kontrolle von Betonüberdeckungen verwendet werden.
Die Firma "GEODATA" hat als Vermessungsdienstleister unter anderem einen Firmenschwerpunkt im Tunnelbau und betreibt zurzeit mehrere Laserscanner auf den jeweiligen Tunnelbaustellen um oben genannte Aufgabenbereiche abzudecken.
Wachsende Genauigkeitsanforderungen in nationalen und internationalen Ausschreibungen von Großprojekten sowie wirtschaftliche Aspekte haben die Firma GEODATA dazu bewegt neue Scansysteme auszumachen, um sie eventuell in weiterer Folge in den bestehenden Arbeitsablauf einzubinden.
Ein neues Scansystem ist der von Firma FARO im ersten Quartal 2008 vorgestellte terrestrische Laserscanner Photon 80. Der Photon 80 bietet dank seiner baulichen Ausbildung als Panoramascanner sowie seiner hohen Messrate beste Voraussetzungen für den Einsatz im Tunnelbau.
Da das Gerät neu am Markt ist und noch wenige bis keine Erfahrungswerte über den Photon 80 vorhanden sind, trat die Firma GEODATA an das Institut für Geodäsie und Geophysik (Forschungsgruppe Ingenieurgeodäsie) der Technischen Universität Wien heran, um im Rahmen einer Diplomarbeit mehrere Systemtests am FARO Photon 80 durchführen zu lassen.
Die im Messkeller der TU Wien in vier Versuchen durchgeführten Systemtests mit einem Entwicklungssystem des Photon 80 sollen Aufschlüsse über die Genauigkeit sowie über eventuelle systematische Fehler des Scansystems liefern.
Bei der Erprobung des Systems stellte sich heraus, dass der Scanner unter den gegebenen Versuchsbedingungen bis auf den integrierten Neigungssensor alle vom Hersteller publizierten Spezifikationen erfüllt.
Das terrestrische Laserscanning hat in den letzten Jahren im Vergleich zu den klassischen Vermessungssystemen sehr stark an Bedeutung zugelegt und dringt mehr und mehr in die Bereiche der Ingenieurgeodäsie vor. Stand der Technik ist terrestrisches Laserscanning unter anderem im Tunnelbau, wo Laserscanner zum Beispiel zur Hohlraumaufnahme, Ausbruchsdokumentation, Profilkontrolle oder etwa zur Kontrolle von Betonüberdeckungen verwendet werden.
Die Firma "GEODATA" hat als Vermessungsdienstleister unter anderem einen Firmenschwerpunkt im Tunnelbau und betreibt zurzeit mehrere Laserscanner auf den jeweiligen Tunnelbaustellen um oben genannte Aufgabenbereiche abzudecken.
Wachsende Genauigkeitsanforderungen in nationalen und internationalen Ausschreibungen von Großprojekten sowie wirtschaftliche Aspekte haben die Firma GEODATA dazu bewegt neue Scansysteme auszumachen, um sie eventuell in weiterer Folge in den bestehenden Arbeitsablauf einzubinden.
Ein neues Scansystem ist der von Firma FARO im ersten Quartal 2008 vorgestellte terrestrische Laserscanner Photon 80. Der Photon 80 bietet dank seiner baulichen Ausbildung als Panoramascanner sowie seiner hohen Messrate beste Voraussetzungen für den Einsatz im Tunnelbau.
Da das Gerät neu am Markt ist und noch wenige bis keine Erfahrungswerte über den Photon 80 vorhanden sind, trat die Firma GEODATA an das Institut für Geodäsie und Geophysik (Forschungsgruppe Ingenieurgeodäsie) der Technischen Universität Wien heran, um im Rahmen einer Diplomarbeit mehrere Systemtests am FARO Photon 80 durchführen zu lassen.
Die im Messkeller der TU Wien in vier Versuchen durchgeführten Systemtests mit einem Entwicklungssystem des Photon 80 sollen Aufschlüsse über die Genauigkeit sowie über eventuelle systematische Fehler des Scansystems liefern.
Bei der Erprobung des Systems stellte sich heraus, dass der Scanner unter den gegebenen Versuchsbedingungen bis auf den integrierten Neigungssensor alle vom Hersteller publizierten Spezifikationen erfüllt.
Development of a spatial decision support model for sewer maintenance
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2010
Betreuer: Prof. Dr. Rita Ugarelli (University of Bologna/Italien), FH-Prof. Dr. Gernot Paulus (FH Kärnten)
Betreuer: Prof. Dr. Rita Ugarelli (University of Bologna/Italien), FH-Prof. Dr. Gernot Paulus (FH Kärnten)
Kurzfassung/Abstract
There are millions of kilometres of public and private drain and sewer assets in the European Countries, that represent the transport infrastructure for wastewater and storm water (either in the form of separated or combined networks) to treatment plants, or via overflows to natural water courses. The assets become older and older with time. This means that, if public utilities will not develop effective management strategies, they will soon have to face relevant costs for replacement or renewal.
The management of urban drainage system is very country dependent, and consequently different techniques for monitoring and inspection have been developed to identify key assets within a sewer network. A key asset is defined as an entity, within the network, whose proper functioning is strategically important for the entire network. This statement has to take into account the objectives that the asset manager wants to achieve.
Management of a sewer network includes the planning of maintenance activities: this has to be cost-efficient. The consequences of an inadequate maintenance planning can impact the environment, the people and the properties.
The testing of different approaches to sewer maintenance planning, including analysis tools, standards for data storage and case studies, will contribute to reinforce the common knowledge in the field of Asset Management.
This study aims to provide a state-of-the-art and to the development of a spatial decision support procedure for sewer maintenance planning. The goal of the corresponding Asset Management policy is to reduce the occurrence of flooding, related to blockages in the pipes. In order to achieve this goal, the procedure reproduces the cyclic planning for a period of 10 years and for a small network. Different criteria are computed, for each pipe in the network and for each year of planning; then the pipes are ranked in order to prioritize the inspections and the maintenance activities. The overall procedure combines together some external analysis tools and other applications written by the author.
The first result of the study is the development and the implementation of a procedure meant to support the decisions concerning sewer maintenance planning.
The final results of the procedure are, for each year of simulation, the list of pipes to be inspected and cleaned; they are presented in form of thematic maps. Moreover an attempt has been made to evaluate the maintenance plan, based on the computation, for each pipe, of the ratio between the number of reactive cleanings and the number of planned inspections. The results for each scenario are critically compared.
The first goal of this research was to provide a brief overview of the state of the art in the field of asset management for sewer networks.
A model to support decisions concerning maintenance planning has been developed and tested on a realistic case study. Three scenarios have been considered to represent different situations.
The assumptions that have been considered in the generation of the dataset may be too strong, and for this reason it is difficult to derive general conclusions.
The model can be enhanced in the following ways:
There are millions of kilometres of public and private drain and sewer assets in the European Countries, that represent the transport infrastructure for wastewater and storm water (either in the form of separated or combined networks) to treatment plants, or via overflows to natural water courses. The assets become older and older with time. This means that, if public utilities will not develop effective management strategies, they will soon have to face relevant costs for replacement or renewal.
The management of urban drainage system is very country dependent, and consequently different techniques for monitoring and inspection have been developed to identify key assets within a sewer network. A key asset is defined as an entity, within the network, whose proper functioning is strategically important for the entire network. This statement has to take into account the objectives that the asset manager wants to achieve.
Management of a sewer network includes the planning of maintenance activities: this has to be cost-efficient. The consequences of an inadequate maintenance planning can impact the environment, the people and the properties.
The testing of different approaches to sewer maintenance planning, including analysis tools, standards for data storage and case studies, will contribute to reinforce the common knowledge in the field of Asset Management.
This study aims to provide a state-of-the-art and to the development of a spatial decision support procedure for sewer maintenance planning. The goal of the corresponding Asset Management policy is to reduce the occurrence of flooding, related to blockages in the pipes. In order to achieve this goal, the procedure reproduces the cyclic planning for a period of 10 years and for a small network. Different criteria are computed, for each pipe in the network and for each year of planning; then the pipes are ranked in order to prioritize the inspections and the maintenance activities. The overall procedure combines together some external analysis tools and other applications written by the author.
The first result of the study is the development and the implementation of a procedure meant to support the decisions concerning sewer maintenance planning.
The final results of the procedure are, for each year of simulation, the list of pipes to be inspected and cleaned; they are presented in form of thematic maps. Moreover an attempt has been made to evaluate the maintenance plan, based on the computation, for each pipe, of the ratio between the number of reactive cleanings and the number of planned inspections. The results for each scenario are critically compared.
The first goal of this research was to provide a brief overview of the state of the art in the field of asset management for sewer networks.
A model to support decisions concerning maintenance planning has been developed and tested on a realistic case study. Three scenarios have been considered to represent different situations.
The assumptions that have been considered in the generation of the dataset may be too strong, and for this reason it is difficult to derive general conclusions.
The model can be enhanced in the following ways:
- test in a real case study with a complete dataset
- development of a graphical user interface
- considering rehabilitation and renewal in addition to high-pressure jetting and monitoring as possible actions
- apply a neighbourhood spatial analysis
- performing an optimization of the solutions of the planning process
- make the SDSS more flexible in relationship to the solutions already in use by the water utilities
Vorwärtsmodellierung des Schwerefeldes zur Analyse von Eismassenvariationen am Beispiel Novaya Zemlya
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2010
Betreuer: Univ.-Prof. Mag. Dr. Roland Pail
Betreuer: Univ.-Prof. Mag. Dr. Roland Pail
Kurzfassung/Abstract
Das Schwerefeld der Erde ist das Produkt des komplexen Aufbaus unseres Planeten und spiegelt die Struktur der heterogenen Massenverteilung im Erdinneren wider. Da diese Massenverteilung ständigen Veränderungen unterworfen ist, gilt das Gleiche auch für das Schwerefeld, denn seine zeitliche Variation steht in direkter Verbindung zu den geophysikalischen Massentransporten wie Ozeanströmungen, hydrologischen Zyklen oder geologischen Prozessen. Nicht zuletzt deshalb steht es in den letzten Jahren verstärkt im Fokus der Weltraumorganisationen und dem Schwerefeld zugeordnete Satellitenmissionen erweitern kontinuierlich unser Wissen über die Erde. Eine Schweremessung beinhaltet immer das vollständige Schwerefeld und es besteht die Schwierigkeit, die Signalanteile eines einzelnen geophysikalischen Prozesses herauszufiltern. Aus diesem Grund wurden in dieser Arbeit die Möglichkeiten der Vorwärtsmodellierung untersucht, welche dabei helfen kann, die Größenordnungen von Massenveränderungen im Schwerefeld zu beurteilen. Das Konzept basiert auf der Modellierung einer Massenverteilung, bestehend aus digitalem Geländemodell und Dichteinformation, deren gravitativer Effekt über geschlossene Formeln berechnet werden kann, wodurch eine synthetische Schwerefeldlösung entsteht. Die vorliegende Arbeit beschreibt die Erstellung und Validierung einer geeigneten Software für die Vorwärtsmodellierung sowie die komplexe Datenfusionierung zur Erstellung des kombinierten Gelände-Dichte Modells am Beispiel der Insel Novaya Zemlya in der eurasischen Arktis. Der nördliche Abschnitt der Insel und die umgebenden Regionen wurden vollständig digital nachgebildet, mit dem Ziel, das darauf liegende Eis mit einer Ausdehnung von etwa 22.000 km² bezüglich seiner Interaktion mit dem Schwerefeld zu untersuchen. Einerseits wurden für dieses Modell unterschiedliche Konfigurationen berechnet, um so synthetisch die Parameter wie Gestein, Eisdichte oder Eismenge auf ihre Interaktion mit dem Schwerefeld zu analysieren. Andererseits wurde die Eisveränderungen der letzten 50 Jahre im Modell nachgebildet und deren Auswirkung auf das Schwerefeld untersucht. Die Ergebnisse aus den Untersuchungen der Modellparameter zeigen, dass sich die synthetische Änderung der Eismassen auf Novaya Zemlya im Bereich von wenigen Milligal im Schwerefeld niederschlägt. Dieser Einfluss setzt sich grundsätzlich aus geometrischen Änderungen (Akkumulation, Abschmelzen) sowie Dichteänderungen zusammen, wobei die Dichtevariation des Eises, mit Auswirkungen von weniger als 1 mgal, den deutlich geringeren Anteil ausmacht. Durch die realistische Nachbildung der Eisveränderung der letzten 50 Jahre konnte gezeigt werden, dass aktuelle Schwerefeldsatelliten noch nicht in der Lage sind, solche lokal begrenzten Eismassenvariationen zu detektieren, da vor allem die räumliche Auflösung bzw. die Messgenauigkeit hier noch zu sehr limitieren, um diese, selbst über mehrere Jahre hinweg, geringen Signale extrahieren zu können. Deshalb können heutige Schwerefeldsatelliten vorerst nur großräumige Eisveränderungen detektieren, wie sie momentan unter anderem in der Antarktis oder Grönland auftreten.
Das Schwerefeld der Erde ist das Produkt des komplexen Aufbaus unseres Planeten und spiegelt die Struktur der heterogenen Massenverteilung im Erdinneren wider. Da diese Massenverteilung ständigen Veränderungen unterworfen ist, gilt das Gleiche auch für das Schwerefeld, denn seine zeitliche Variation steht in direkter Verbindung zu den geophysikalischen Massentransporten wie Ozeanströmungen, hydrologischen Zyklen oder geologischen Prozessen. Nicht zuletzt deshalb steht es in den letzten Jahren verstärkt im Fokus der Weltraumorganisationen und dem Schwerefeld zugeordnete Satellitenmissionen erweitern kontinuierlich unser Wissen über die Erde. Eine Schweremessung beinhaltet immer das vollständige Schwerefeld und es besteht die Schwierigkeit, die Signalanteile eines einzelnen geophysikalischen Prozesses herauszufiltern. Aus diesem Grund wurden in dieser Arbeit die Möglichkeiten der Vorwärtsmodellierung untersucht, welche dabei helfen kann, die Größenordnungen von Massenveränderungen im Schwerefeld zu beurteilen. Das Konzept basiert auf der Modellierung einer Massenverteilung, bestehend aus digitalem Geländemodell und Dichteinformation, deren gravitativer Effekt über geschlossene Formeln berechnet werden kann, wodurch eine synthetische Schwerefeldlösung entsteht. Die vorliegende Arbeit beschreibt die Erstellung und Validierung einer geeigneten Software für die Vorwärtsmodellierung sowie die komplexe Datenfusionierung zur Erstellung des kombinierten Gelände-Dichte Modells am Beispiel der Insel Novaya Zemlya in der eurasischen Arktis. Der nördliche Abschnitt der Insel und die umgebenden Regionen wurden vollständig digital nachgebildet, mit dem Ziel, das darauf liegende Eis mit einer Ausdehnung von etwa 22.000 km² bezüglich seiner Interaktion mit dem Schwerefeld zu untersuchen. Einerseits wurden für dieses Modell unterschiedliche Konfigurationen berechnet, um so synthetisch die Parameter wie Gestein, Eisdichte oder Eismenge auf ihre Interaktion mit dem Schwerefeld zu analysieren. Andererseits wurde die Eisveränderungen der letzten 50 Jahre im Modell nachgebildet und deren Auswirkung auf das Schwerefeld untersucht. Die Ergebnisse aus den Untersuchungen der Modellparameter zeigen, dass sich die synthetische Änderung der Eismassen auf Novaya Zemlya im Bereich von wenigen Milligal im Schwerefeld niederschlägt. Dieser Einfluss setzt sich grundsätzlich aus geometrischen Änderungen (Akkumulation, Abschmelzen) sowie Dichteänderungen zusammen, wobei die Dichtevariation des Eises, mit Auswirkungen von weniger als 1 mgal, den deutlich geringeren Anteil ausmacht. Durch die realistische Nachbildung der Eisveränderung der letzten 50 Jahre konnte gezeigt werden, dass aktuelle Schwerefeldsatelliten noch nicht in der Lage sind, solche lokal begrenzten Eismassenvariationen zu detektieren, da vor allem die räumliche Auflösung bzw. die Messgenauigkeit hier noch zu sehr limitieren, um diese, selbst über mehrere Jahre hinweg, geringen Signale extrahieren zu können. Deshalb können heutige Schwerefeldsatelliten vorerst nur großräumige Eisveränderungen detektieren, wie sie momentan unter anderem in der Antarktis oder Grönland auftreten.
OGC-Sensorweb-Services für Fragestellungen in Straße-Schiene-Terminals
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2010
Betreuer: Dipl.-Ing. Brigitte Rudel
Betreuer: Dipl.-Ing. Brigitte Rudel
Kurzfassung/Abstract
Diese Arbeit untersucht die Anwendbarkeit der OGC-Sensorweb-Standards und Best Practices auf Fragestellungen im Terminallogistikbereich. Dazu wurden relevante Sensorsysteme und deren Beobachtungsdaten modelliert und eine Service-Architektur zur Servicierung dieser Daten entworfen und implementiert. Abschließend wurden die Daten in einem GIS visualisiert.
Diese Arbeit untersucht die Anwendbarkeit der OGC-Sensorweb-Standards und Best Practices auf Fragestellungen im Terminallogistikbereich. Dazu wurden relevante Sensorsysteme und deren Beobachtungsdaten modelliert und eine Service-Architektur zur Servicierung dieser Daten entworfen und implementiert. Abschließend wurden die Daten in einem GIS visualisiert.
Entwicklung eines Laser-Messsystems zur Untersuchung von Vermessungsstativen
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2009
Betreuer: Prof. Dipl.-Ing. Dr.-Ing. Andreas Eichhorn
Betreuer: Prof. Dipl.-Ing. Dr.-Ing. Andreas Eichhorn
Kurzfassung/Abstract
Das Ziel dieser Arbeit besteht darin, die Auswirkungen der automatisierten Bewegungen unterschiedlicher Tachymeter (Robottachymeter) auf das Messzubehör zu untersuchen.
Besonderes Augenmerk wurde dabei auf den Vergleich der unterschiedlichen Antriebsarten der Tachymeter und deren Beeinflussung während der Drehbewegung auf die Stabilität eines gängigen Stativs gelegt.
Der erste Teil behandelt die Anforderungen und Entwicklung eines "low-cost" Laser- Messsystems sowie dessen Kalibrierung. Dieses Messsystem besteht aus einem Laser als Sendeeinheit und eine PSD (Position Sensitive Device) als Referenzeinheit. Damit können zweidimensionale Positionsänderungen mit einer Genauigkeit von < 0,01mm gemessen und durch Zwischenschaltung eines Oszilloskops eine Messrate von bis zu 30kHz erreicht werden.
Im zweiten Teil wurde das Laser-Messsystem zur Untersuchung von Stativbewegungen unter Belastung unterschiedlicher Tachymeter (TCA1800, TCRP1201, S8) eingesetzt. Um die unterschiedlichen Antriebsarten vergleichen zu können, wurden nur ein Stativ und ein Dreifuss verwendet. Die Tachymeter führten mehrere realitätsnahe Messszenarien, wie Satzmessung, ferngesteuert durch. Hauptaugenmerk dabei wurde auf die horizontalen (Verdrehungen) und vertikalen (Kippung bzw. Neigung) Bewegungen des Stativs gelegt.
Weiters wurde das Stativ einer Eigenfrequenzmessung unterzogen und mit den detaillierten, hochfrequenten Messungen während der Belastung der Drehbewegungen des Tachymeters verglichen.
Das Ziel dieser Arbeit besteht darin, die Auswirkungen der automatisierten Bewegungen unterschiedlicher Tachymeter (Robottachymeter) auf das Messzubehör zu untersuchen.
Besonderes Augenmerk wurde dabei auf den Vergleich der unterschiedlichen Antriebsarten der Tachymeter und deren Beeinflussung während der Drehbewegung auf die Stabilität eines gängigen Stativs gelegt.
Der erste Teil behandelt die Anforderungen und Entwicklung eines "low-cost" Laser- Messsystems sowie dessen Kalibrierung. Dieses Messsystem besteht aus einem Laser als Sendeeinheit und eine PSD (Position Sensitive Device) als Referenzeinheit. Damit können zweidimensionale Positionsänderungen mit einer Genauigkeit von < 0,01mm gemessen und durch Zwischenschaltung eines Oszilloskops eine Messrate von bis zu 30kHz erreicht werden.
Im zweiten Teil wurde das Laser-Messsystem zur Untersuchung von Stativbewegungen unter Belastung unterschiedlicher Tachymeter (TCA1800, TCRP1201, S8) eingesetzt. Um die unterschiedlichen Antriebsarten vergleichen zu können, wurden nur ein Stativ und ein Dreifuss verwendet. Die Tachymeter führten mehrere realitätsnahe Messszenarien, wie Satzmessung, ferngesteuert durch. Hauptaugenmerk dabei wurde auf die horizontalen (Verdrehungen) und vertikalen (Kippung bzw. Neigung) Bewegungen des Stativs gelegt.
Weiters wurde das Stativ einer Eigenfrequenzmessung unterzogen und mit den detaillierten, hochfrequenten Messungen während der Belastung der Drehbewegungen des Tachymeters verglichen.
Evaluierung des Leica TS30 Präzisionstachymeters für statische und kinematische Aufgabenstellung
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2010
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Heribert Kahmen
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Heribert Kahmen
Kurzfassung/Abstract
Totalstationen werden nicht nur im Bereich der klassischen Vermessung eingesetzt. Vielmehr sind es mittlerweile Allround-Geräte für verschiedene Vermessungsbereiche. Ein Gebiet, in denen Totalstationen eingesetzt werden, ist die Beobachtung von kinematischen Trajektorien. In diesem Fall treten hohe Qualitätsansprüche an das Messsystem. Da ein bewegtes Objekt in nur einer Fernrohrlage beobachtet wird, kann der systematische Fehleranteil nicht eliminiert werden.
Für eine Beobachtung eines sich schnell bewegenden Objektes muss die Totalstation einige Merkmale aufweisen. Es wird eine schnelle Motorisierung benötigt, um eine hohe Beobachtungsgeschwindigkeit zu ermöglichen. Weiters ist eine flotte Distanz- und Winkelmessung vorteilhaft. Um den kinematischen Positionsfehler klein zu halten, ist einerseits eine schnelle Datenrate und andererseits eine gute Sensorsynchronisation notwendig.
In dieser Arbeit wird das Messsystem des Leica TS30 näher untersucht und mit anderen Vermessungsgeräten, wie zum Beispiel dem TPS1201 von Leica, dem S8 von Trimble, etc. verglichen. Einerseits werden kinematische Objektbeobachtungen untersucht, andererseits werden statische ATR-Genauigkeiten verglichen.
Der erste Teil behandelt die Aspekte einer bewegten Trajektorie, wie die Messrate, Sensorsynchronisation und die kinematische Positionsgenauigkeit. Die Untersuchungen erfolgen mit dem TS30 im Vergleich mit dem TPS1201 von Leica und dem S8 von Trimble.
Es werden drei unterschiedliche Tests durchgeführt. Im Ersten wird die Messrate mit den Herstellerangaben überprüft. Es stellt sich auch die Frage, ob es einen Unterschied gibt, wenn die Messdaten intern auf eine Speicherkarte oder extern am PC abgespeichert werden. Ein zweiter Test soll feststellen, ob die Sensoren im kinematischen Modus ausreichend gut synchronisiert sind und wie groß der kinematische Positionierungsfehler zu erwarten ist. Anschließend werden noch Genauigkeitsuntersuchungen durchgeführt. Hier wird überprüft, ob es Genauigkeitsunterschiede im kinematischen Messmodus bei unterschiedlichen Messraten gibt. Weiters werden die Unterschiede zwischen den verschiedenen kinematischen Messmodi (Tracking und Synchrotrack von Leica und Continuous Topo von Trimble) herausgearbeitet.
Der zweite Teil der Arbeit beschränkt sich auf statische Genauigkeitsuntersuchungen. Das Messsystem des TS30 wird auf die Genauigkeit der automatischen Zielerkennung geprüft und mit Konkurrenzprodukten, wie der TCA2003 von Leica oder der IS205 von Topcon verglichen.
Totalstationen werden nicht nur im Bereich der klassischen Vermessung eingesetzt. Vielmehr sind es mittlerweile Allround-Geräte für verschiedene Vermessungsbereiche. Ein Gebiet, in denen Totalstationen eingesetzt werden, ist die Beobachtung von kinematischen Trajektorien. In diesem Fall treten hohe Qualitätsansprüche an das Messsystem. Da ein bewegtes Objekt in nur einer Fernrohrlage beobachtet wird, kann der systematische Fehleranteil nicht eliminiert werden.
Für eine Beobachtung eines sich schnell bewegenden Objektes muss die Totalstation einige Merkmale aufweisen. Es wird eine schnelle Motorisierung benötigt, um eine hohe Beobachtungsgeschwindigkeit zu ermöglichen. Weiters ist eine flotte Distanz- und Winkelmessung vorteilhaft. Um den kinematischen Positionsfehler klein zu halten, ist einerseits eine schnelle Datenrate und andererseits eine gute Sensorsynchronisation notwendig.
In dieser Arbeit wird das Messsystem des Leica TS30 näher untersucht und mit anderen Vermessungsgeräten, wie zum Beispiel dem TPS1201 von Leica, dem S8 von Trimble, etc. verglichen. Einerseits werden kinematische Objektbeobachtungen untersucht, andererseits werden statische ATR-Genauigkeiten verglichen.
Der erste Teil behandelt die Aspekte einer bewegten Trajektorie, wie die Messrate, Sensorsynchronisation und die kinematische Positionsgenauigkeit. Die Untersuchungen erfolgen mit dem TS30 im Vergleich mit dem TPS1201 von Leica und dem S8 von Trimble.
Es werden drei unterschiedliche Tests durchgeführt. Im Ersten wird die Messrate mit den Herstellerangaben überprüft. Es stellt sich auch die Frage, ob es einen Unterschied gibt, wenn die Messdaten intern auf eine Speicherkarte oder extern am PC abgespeichert werden. Ein zweiter Test soll feststellen, ob die Sensoren im kinematischen Modus ausreichend gut synchronisiert sind und wie groß der kinematische Positionierungsfehler zu erwarten ist. Anschließend werden noch Genauigkeitsuntersuchungen durchgeführt. Hier wird überprüft, ob es Genauigkeitsunterschiede im kinematischen Messmodus bei unterschiedlichen Messraten gibt. Weiters werden die Unterschiede zwischen den verschiedenen kinematischen Messmodi (Tracking und Synchrotrack von Leica und Continuous Topo von Trimble) herausgearbeitet.
Der zweite Teil der Arbeit beschränkt sich auf statische Genauigkeitsuntersuchungen. Das Messsystem des TS30 wird auf die Genauigkeit der automatischen Zielerkennung geprüft und mit Konkurrenzprodukten, wie der TCA2003 von Leica oder der IS205 von Topcon verglichen.
Untersuchung des faseroptischen Messsystems "SOFO Dynamic"
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2010
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Kurzfassung/Abstract
Ziel dieser Masterarbeit war die Untersuchung der Präzision und Genauigkeit des faseroptischen Messsystems SOFO Dynamic (Hersteller Smartec SA, Schweiz, Teil der Roctest Gruppe) im Rahmen diverser Prototypentests. Dabei wurden insbesondere Experimente im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme an der TU Graz durchgeführt, um Informationen für den Feldeinsatz abzuleiten. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Ermittlung der Präzision unter Verwendung mehrerer SOFO Sensoren auf Basis verschiedener Experimente. Diese Versuche zeichnen sich durch Variation jener Parameter aus, die Indikatoren für die Lichtintensität der Sensoren sind, sowie auch durch unterschiedliche Beobachtungszeiten.
Durch Frequenzanalyse der Daten und Beobachtungen des Verkehrs an der parallel zum Labor anliegenden Straße wurde festgestellt, dass die hochpräzisen Messdaten durch die vorbeifahrenden Fahrzeuge beeinflusst werden, obwohl das Messlabor vom Gebäude entkoppelt ist. Für die Berechnung der Präzision der Messungen wird zur Eliminierung der niedrigen Frequenzen ein Hochpass-Filter und zur Unterdrückung der Fahrzeugfrequenzen ein Bandstop-Filter verwendet. Die Standardabweichungen liegen in Abhängigkeit des verwendeten Sensors und der Abtastrate zwischen 0.01 nm bei 1 Hz und 2.6 nm bei 20 kHz. Weiters wird das Driftverhalten des Messgeräts untersucht, welches unter anderem abhängig von der Betriebstemperatur ist. Um das Aufheizverhalten des SOFO Dynamic Messgeräts zu analysieren wurden die Messungen im Kaltzustand des Instruments gestartet. Dabei ist ein Kurzzeit-Driften von unter 2.7 microns/h festgestellt worden. Bei analysierten Langzeitmessungen von einer Woche wurden Driften von maximal 2.2 microns berechnet, die sich im Vergleich zu absoluten Messungen mit dem SOFO Static Messgerät ergeben. Die Ergebnisse zeigen, dass die vom Hersteller Smartec SA angegeben Systemeigenschaften des Geräts unter Laborbedingungen erreicht werden können und teilweise sogar besser sind.
Ziel dieser Masterarbeit war die Untersuchung der Präzision und Genauigkeit des faseroptischen Messsystems SOFO Dynamic (Hersteller Smartec SA, Schweiz, Teil der Roctest Gruppe) im Rahmen diverser Prototypentests. Dabei wurden insbesondere Experimente im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme an der TU Graz durchgeführt, um Informationen für den Feldeinsatz abzuleiten. Ein wesentlicher Teil dieser Arbeit beschäftigt sich mit der Ermittlung der Präzision unter Verwendung mehrerer SOFO Sensoren auf Basis verschiedener Experimente. Diese Versuche zeichnen sich durch Variation jener Parameter aus, die Indikatoren für die Lichtintensität der Sensoren sind, sowie auch durch unterschiedliche Beobachtungszeiten.
Durch Frequenzanalyse der Daten und Beobachtungen des Verkehrs an der parallel zum Labor anliegenden Straße wurde festgestellt, dass die hochpräzisen Messdaten durch die vorbeifahrenden Fahrzeuge beeinflusst werden, obwohl das Messlabor vom Gebäude entkoppelt ist. Für die Berechnung der Präzision der Messungen wird zur Eliminierung der niedrigen Frequenzen ein Hochpass-Filter und zur Unterdrückung der Fahrzeugfrequenzen ein Bandstop-Filter verwendet. Die Standardabweichungen liegen in Abhängigkeit des verwendeten Sensors und der Abtastrate zwischen 0.01 nm bei 1 Hz und 2.6 nm bei 20 kHz. Weiters wird das Driftverhalten des Messgeräts untersucht, welches unter anderem abhängig von der Betriebstemperatur ist. Um das Aufheizverhalten des SOFO Dynamic Messgeräts zu analysieren wurden die Messungen im Kaltzustand des Instruments gestartet. Dabei ist ein Kurzzeit-Driften von unter 2.7 microns/h festgestellt worden. Bei analysierten Langzeitmessungen von einer Woche wurden Driften von maximal 2.2 microns berechnet, die sich im Vergleich zu absoluten Messungen mit dem SOFO Static Messgerät ergeben. Die Ergebnisse zeigen, dass die vom Hersteller Smartec SA angegeben Systemeigenschaften des Geräts unter Laborbedingungen erreicht werden können und teilweise sogar besser sind.
Automatisierte Berücksichtigung von Netzspannungen und Geoidundulationen in der RTK-Vermessung
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2010
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Die GNSS-Punktbestimmung legt Neupunktskoordinaten im Allgemeinen in einem geozentrischen gelagerten, kartesischen Koordinatenrahmen fest. Zur Transformation in das geodätische Datum der nationalen Vermessung (in Österreich MGI) findet vorwiegend die räumliche Ähnlichkeitstransformation Anwendung. Für den Fall eines spannungsfreien Landeskoordinatensystems wäre nur ein einziger 7-Parametersatz nötig. Da die Landeskoordinaten aus historischen Gründen jedoch Verzerrungen aufweisen, wird eine Vielzahl von regionalen bzw.
lokalen Parametersätzen benötigt, welche die je nach Größe des Gültigkeitsbereichs auftretenden Klaffungen minimieren. Diese historisch bedingten meist systematisch verteilten Lage-Restklaffungen können jedoch auch als Funktionswerte über einen geographischen Raster dargestellt werden. Ebenso lassen sich verbleibende Geoidundulationen als Höhenkomponente darstellen. Derartige Raster können mit Hilfe des RTCM 3.1 Formats an den Rover übertragen werden. Für die jeweilige Position kann nun in den Raster interpoliert werden und damit die Position korrigiert werden. Dies eröffnet dem Nutzer die Möglichkeit in Echtzeit eine gegenüber den Landeskoordinaten möglichst "spannungsfreie" und dem nationalen Höhensystem angepasste Position zu bestimmen.
Im Rahmen dieser Arbeit wurde die Verfügbarkeit und Genauigkeit der Rasterinterpolation auf Basis des TEPOS Korrekturdienstes der ÖBB erprobt. Deren Resultate wurden im Vergleich mit anderen lokalen Anpassungen wie regionalen Transformationen untersucht. Zu diesem Zweck wurden in verschiedenen Testgebieten in Ostösterreich RTK-Messungen auf bekannten Punkten des nationalen Festpunktfeldes mit beiden Verfahren durchgeführt und die ermittelten Koordinaten in Relation zu den Landeskoordinaten gestellt. Einige Testpunkte wurden im Bergland ausgewählt, um die Funktionalität des zur Approximation der orthonometrischen Höhe übermittelten Geoidundulationsfeldes zu überprüfen.
Die GNSS-Punktbestimmung legt Neupunktskoordinaten im Allgemeinen in einem geozentrischen gelagerten, kartesischen Koordinatenrahmen fest. Zur Transformation in das geodätische Datum der nationalen Vermessung (in Österreich MGI) findet vorwiegend die räumliche Ähnlichkeitstransformation Anwendung. Für den Fall eines spannungsfreien Landeskoordinatensystems wäre nur ein einziger 7-Parametersatz nötig. Da die Landeskoordinaten aus historischen Gründen jedoch Verzerrungen aufweisen, wird eine Vielzahl von regionalen bzw.
lokalen Parametersätzen benötigt, welche die je nach Größe des Gültigkeitsbereichs auftretenden Klaffungen minimieren. Diese historisch bedingten meist systematisch verteilten Lage-Restklaffungen können jedoch auch als Funktionswerte über einen geographischen Raster dargestellt werden. Ebenso lassen sich verbleibende Geoidundulationen als Höhenkomponente darstellen. Derartige Raster können mit Hilfe des RTCM 3.1 Formats an den Rover übertragen werden. Für die jeweilige Position kann nun in den Raster interpoliert werden und damit die Position korrigiert werden. Dies eröffnet dem Nutzer die Möglichkeit in Echtzeit eine gegenüber den Landeskoordinaten möglichst "spannungsfreie" und dem nationalen Höhensystem angepasste Position zu bestimmen.
Im Rahmen dieser Arbeit wurde die Verfügbarkeit und Genauigkeit der Rasterinterpolation auf Basis des TEPOS Korrekturdienstes der ÖBB erprobt. Deren Resultate wurden im Vergleich mit anderen lokalen Anpassungen wie regionalen Transformationen untersucht. Zu diesem Zweck wurden in verschiedenen Testgebieten in Ostösterreich RTK-Messungen auf bekannten Punkten des nationalen Festpunktfeldes mit beiden Verfahren durchgeführt und die ermittelten Koordinaten in Relation zu den Landeskoordinaten gestellt. Einige Testpunkte wurden im Bergland ausgewählt, um die Funktionalität des zur Approximation der orthonometrischen Höhe übermittelten Geoidundulationsfeldes zu überprüfen.
Genauigkeitsuntersuchung Terestrischer Laserscanner zur Dokumentation von Restaurierungsarbeiten
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2009
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
Viele Anwendungen in der Verwaltung, der Darstellung und der Dokumentation von Kulturerbe benötigen präzise und detaillierte drei-dimensionale Modelle. Typische Beispiele dafür sind Risikoabschätzung, Planungs- und Rekonstruktionsprozesse oder Öffentlichkeitsarbeit. Zur Datenerfassung für die Erstellung solcher Modelle haben sich in den vergangenen Jahren terrestrischen Laserscannern etabliert.
Für die Dokumentation von Restaurierungsarbeiten an Kulturerbe wird häufig Millimetergenauigkeit gefordert. Das bedeutet, dass beide Modelle (vor und nach der Restaurierung) mindestens diese Genauigkeit aufweisen müssen, sodass geometrische Veränderungen ab einer gewissen Größe mit Sicherheit aufgedeckt werden können. Aufgrund dieser hohen Ansprüche müssen die Möglichkeiten der heute verfügbaren Laserscanner voll ausgenützt werden. Dies bedeutet vor allem eine Optimierung der geräteinternen Kalibrierung, die zur Modellierung von systematischen Fehlern dient.
Aus diesen Überlegungen heraus beschäftigt sich diese Diplomarbeit mit der Größenordnung systematischer Fehler, deren Ursachen normalerweise in Defiziten im Bereich der Scannerkonfiguration, einer mangelhaften Scannerkalibrierung und Restfehlern in der Orientierung liegen.
Zu Beginn der Arbeit werden bereits durchgeführte Untersuchungen und die daraus entstandenen Ansätze zur Verbesserung der Kalibrierung vorgestellt. Im zweiten Teil werden diese Experimente mit den Messdaten eines neuen Scanners wiederholt und die Ergebnisse präsentiert.
Abschließend wird anhand eines praktischen Beispiels, einem Zierbrunnen im Areal von Schloss Schönbrunn, die Erstellung von Oberflächenmodellen vor und nach einer Restaurierung gezeigt, wobei sowohl unterschiedliche Ansätze für eine bestmögliche Orientierung als auch verschiedene Parametereinstellungen zur Modellierung getestet werden. Das Beispiel zeigt, dass die verbleibenden systematischen Fehler im Millimeterbereich liegen. Somit können globale Unterschiede zwischen den beiden Modelle mit Hilfe von Differenzbildern aufgedeckt werden, sofern sie diese Grenze überschreiten.
Viele Anwendungen in der Verwaltung, der Darstellung und der Dokumentation von Kulturerbe benötigen präzise und detaillierte drei-dimensionale Modelle. Typische Beispiele dafür sind Risikoabschätzung, Planungs- und Rekonstruktionsprozesse oder Öffentlichkeitsarbeit. Zur Datenerfassung für die Erstellung solcher Modelle haben sich in den vergangenen Jahren terrestrischen Laserscannern etabliert.
Für die Dokumentation von Restaurierungsarbeiten an Kulturerbe wird häufig Millimetergenauigkeit gefordert. Das bedeutet, dass beide Modelle (vor und nach der Restaurierung) mindestens diese Genauigkeit aufweisen müssen, sodass geometrische Veränderungen ab einer gewissen Größe mit Sicherheit aufgedeckt werden können. Aufgrund dieser hohen Ansprüche müssen die Möglichkeiten der heute verfügbaren Laserscanner voll ausgenützt werden. Dies bedeutet vor allem eine Optimierung der geräteinternen Kalibrierung, die zur Modellierung von systematischen Fehlern dient.
Aus diesen Überlegungen heraus beschäftigt sich diese Diplomarbeit mit der Größenordnung systematischer Fehler, deren Ursachen normalerweise in Defiziten im Bereich der Scannerkonfiguration, einer mangelhaften Scannerkalibrierung und Restfehlern in der Orientierung liegen.
Zu Beginn der Arbeit werden bereits durchgeführte Untersuchungen und die daraus entstandenen Ansätze zur Verbesserung der Kalibrierung vorgestellt. Im zweiten Teil werden diese Experimente mit den Messdaten eines neuen Scanners wiederholt und die Ergebnisse präsentiert.
Abschließend wird anhand eines praktischen Beispiels, einem Zierbrunnen im Areal von Schloss Schönbrunn, die Erstellung von Oberflächenmodellen vor und nach einer Restaurierung gezeigt, wobei sowohl unterschiedliche Ansätze für eine bestmögliche Orientierung als auch verschiedene Parametereinstellungen zur Modellierung getestet werden. Das Beispiel zeigt, dass die verbleibenden systematischen Fehler im Millimeterbereich liegen. Somit können globale Unterschiede zwischen den beiden Modelle mit Hilfe von Differenzbildern aufgedeckt werden, sofern sie diese Grenze überschreiten.
Kinematische Analyse einer Massenbewegung auf Basis von geodätischen und geomorphologischen Daten
Institut für Geodäsie und Geophysik, Forschungsgruppe Geophysik, Technische Universität Wien, 2009
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
In Dunaszekcsö, Ungarn, ca. 20 km nördlich der Grenze zu Serbien und Kroatien, ist die westliche Uferzone der Donau von einem annähernd 50m hohen Wall aus sedimentären Ablagerungen, überwiegend Schluff, begrenzt. Im März 2008 sackte ein Block mit einer Breite von 220m rund 10m ab. Die Rutschung führte zu einer Erhöhung des Flussbettes in diesem Bereich, sodass sich ein halbkreisförmiger "Bauch" mit einer maximalen Ausbreitung von fast 40m formte, der über den Wasserspiegel aufragt.
Die Informationen über die Rutschung sind einerseits spärlich andererseits sehr inhomogen. So konnten einige Merkmale tachymetrisch erfasst werden, während andere aus Orthofotos oder Schrägaufnahmen rekonstruiert werden mussten. Im Rahmen dieser Arbeit sollte untersucht werden, inwieweit die wenigen inhomogenen Beobachtungen durch das Modell einer Rotationsgleitung beschrieben werden können und welche Aussagen über das künftige Verhalten der Rutschung, vor allem im Bezug auf Wasserstandsänderungen der Donau, möglich sind.
In Dunaszekcsö, Ungarn, ca. 20 km nördlich der Grenze zu Serbien und Kroatien, ist die westliche Uferzone der Donau von einem annähernd 50m hohen Wall aus sedimentären Ablagerungen, überwiegend Schluff, begrenzt. Im März 2008 sackte ein Block mit einer Breite von 220m rund 10m ab. Die Rutschung führte zu einer Erhöhung des Flussbettes in diesem Bereich, sodass sich ein halbkreisförmiger "Bauch" mit einer maximalen Ausbreitung von fast 40m formte, der über den Wasserspiegel aufragt.
Die Informationen über die Rutschung sind einerseits spärlich andererseits sehr inhomogen. So konnten einige Merkmale tachymetrisch erfasst werden, während andere aus Orthofotos oder Schrägaufnahmen rekonstruiert werden mussten. Im Rahmen dieser Arbeit sollte untersucht werden, inwieweit die wenigen inhomogenen Beobachtungen durch das Modell einer Rotationsgleitung beschrieben werden können und welche Aussagen über das künftige Verhalten der Rutschung, vor allem im Bezug auf Wasserstandsänderungen der Donau, möglich sind.
Attitude determination using a GPS multi antenna array
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2009
Betreuer: Ao.Univ.-Prof. Dr. Norbert Kühtreiber
Betreuer: Ao.Univ.-Prof. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Attitude parameters enable the determination of an objects alignment with respect to the coordinate frame. The common attitude determination systems are based on INS (Inertial Navigation System) measurements. Since INS systems are still very expensive, the number of users is limited. Therefore another opportunity for the attitude determination is the use of GNSS measurements. The attitude determination with GNSS (Global Navigation Satellite System) can be applied in different operational areas, like ships, planes, cars or unmanned vehicles. This master thesis is based on the project GRAVIS, realized by the Institute of Navigation and Satellite Geodesy at Graz University of Technology. The aim of the project is the gravity determination using INS and GNSS measurements. For this application the attitude and acceleration parameters based on GNSS data are used to support the strap down procedure. The attitude can be derived on the one hand by using a GNSS antenna array and on the other hand by using an INS. Both systems are mounted on a platform, which can be used for different applications. My thesis deals with the attitude determination based on GNSS measurements. In this case four antennas are used to define a multi antenna array. An attitude computation can be performed with three antennas. After presenting the principles of GNSS positioning methods, this thesis focuses on the attitude determination using GNSS measurements. In a first step the mathematical background is discussed. Afterwards an error propagation of the GNSS attitude determination and the calibration procedure of the platform is presented. Within several practical tests, beside the actual attitude determination, also analyses regarding proper update rates are discussed. The results of the field tests are evaluated and compared to actual INS measurements. The attitude computation algorithm and further the solution of the attitude computation based on GNSS data represent the main content of this master thesis.
Attitude parameters enable the determination of an objects alignment with respect to the coordinate frame. The common attitude determination systems are based on INS (Inertial Navigation System) measurements. Since INS systems are still very expensive, the number of users is limited. Therefore another opportunity for the attitude determination is the use of GNSS measurements. The attitude determination with GNSS (Global Navigation Satellite System) can be applied in different operational areas, like ships, planes, cars or unmanned vehicles. This master thesis is based on the project GRAVIS, realized by the Institute of Navigation and Satellite Geodesy at Graz University of Technology. The aim of the project is the gravity determination using INS and GNSS measurements. For this application the attitude and acceleration parameters based on GNSS data are used to support the strap down procedure. The attitude can be derived on the one hand by using a GNSS antenna array and on the other hand by using an INS. Both systems are mounted on a platform, which can be used for different applications. My thesis deals with the attitude determination based on GNSS measurements. In this case four antennas are used to define a multi antenna array. An attitude computation can be performed with three antennas. After presenting the principles of GNSS positioning methods, this thesis focuses on the attitude determination using GNSS measurements. In a first step the mathematical background is discussed. Afterwards an error propagation of the GNSS attitude determination and the calibration procedure of the platform is presented. Within several practical tests, beside the actual attitude determination, also analyses regarding proper update rates are discussed. The results of the field tests are evaluated and compared to actual INS measurements. The attitude computation algorithm and further the solution of the attitude computation based on GNSS data represent the main content of this master thesis.
Automatisierte Ableitung einer topographischen Bodenbedeckungskarte im subalpinen Bereich
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2009
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
Das luftgestützte Laserscanning (Airborne Laserscanning, kurz ALS) hat sich in den letzten Jahren zu einem Standardverfahren für die digitale Erfassung von Landschaften entwickelt. Wesentliche Vorteile gegenüber herkömmlichen Methoden sind die hohe Qualität und Automatisierung bei der Erfassung und Auswertung der Daten des Geländes. Dies macht das ALS auch für die Ableitung von topographischen Karten interessant, dessen Herstellung und Aktualisierung heutzutage noch sehr teuer ist.
Im Rahmen dieser Diplomarbeit wurde ein automatisiertes Verfahren für die Ableitung einer großmaßstäbigen topographischen Karte (1:10.000 bzw. 1:25.000) auf Grundlage von Laserscanning- Daten und Orthophotos entwickelt. Das Verfahren ermöglicht die Ableitung einer Bodenbedeckung und Geländedarstellung, wobei zwischen den Klassen Wald, Latschen, Wiese, Fels und Geröll unterschieden wird. Die Ableitung der Bodenbedeckung erfolgt in zwei Schritten. Als erstes wird das Gelände mithilfe abgeleiteter Attribute der ALS-Punktwolke und des Orthophotos klassifiziert. Das Ergebnis der Klassifizierung wird anschließend in einem zweiten Schritt generalisiert.
Dadurch können Karten mit unterschiedlichem Maßstab aus demselben Datenmaterial abgeleitet werden. Die Geländedarstellung hingegen besteht aus Höhenlinien, Schummerung und einer Felszeichnung, und wird auf Grundlage eines digitalen Geländemodelles (DGM) abgeleitet. Während die Berechnung der Höhenlinien und Schummerung mit Standardverfahren erfolgt, wurde für die Felsdarstellung eine neue automatisierte Methode entwickelt. Das Verfahren wurde erfolgreich auf ein Testgebiet nördlich von Innsbruck (Tirol, Österreich) angewendet.
Dabei konnten für die Bodenbedeckung gute Resultate erzielt werden. Ein Vergleich der automatisierten Karte mit Referenzkarten ergab eine flächenmäßige Übereinstimmung zwischen 86% und 93% (je nach Referenzkarte). Die automatisiert abgeleitete Felsdarstellung hingegen konnte nur teilweise überzeugen.
Das luftgestützte Laserscanning (Airborne Laserscanning, kurz ALS) hat sich in den letzten Jahren zu einem Standardverfahren für die digitale Erfassung von Landschaften entwickelt. Wesentliche Vorteile gegenüber herkömmlichen Methoden sind die hohe Qualität und Automatisierung bei der Erfassung und Auswertung der Daten des Geländes. Dies macht das ALS auch für die Ableitung von topographischen Karten interessant, dessen Herstellung und Aktualisierung heutzutage noch sehr teuer ist.
Im Rahmen dieser Diplomarbeit wurde ein automatisiertes Verfahren für die Ableitung einer großmaßstäbigen topographischen Karte (1:10.000 bzw. 1:25.000) auf Grundlage von Laserscanning- Daten und Orthophotos entwickelt. Das Verfahren ermöglicht die Ableitung einer Bodenbedeckung und Geländedarstellung, wobei zwischen den Klassen Wald, Latschen, Wiese, Fels und Geröll unterschieden wird. Die Ableitung der Bodenbedeckung erfolgt in zwei Schritten. Als erstes wird das Gelände mithilfe abgeleiteter Attribute der ALS-Punktwolke und des Orthophotos klassifiziert. Das Ergebnis der Klassifizierung wird anschließend in einem zweiten Schritt generalisiert.
Dadurch können Karten mit unterschiedlichem Maßstab aus demselben Datenmaterial abgeleitet werden. Die Geländedarstellung hingegen besteht aus Höhenlinien, Schummerung und einer Felszeichnung, und wird auf Grundlage eines digitalen Geländemodelles (DGM) abgeleitet. Während die Berechnung der Höhenlinien und Schummerung mit Standardverfahren erfolgt, wurde für die Felsdarstellung eine neue automatisierte Methode entwickelt. Das Verfahren wurde erfolgreich auf ein Testgebiet nördlich von Innsbruck (Tirol, Österreich) angewendet.
Dabei konnten für die Bodenbedeckung gute Resultate erzielt werden. Ein Vergleich der automatisierten Karte mit Referenzkarten ergab eine flächenmäßige Übereinstimmung zwischen 86% und 93% (je nach Referenzkarte). Die automatisiert abgeleitete Felsdarstellung hingegen konnte nur teilweise überzeugen.
Evaluierung des bildgebenden Deformationsmesssystems i-MeaS
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2010
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Heribert Kahmen
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Heribert Kahmen
Kurzfassung/Abstract
Diese Arbeit beschäftigt sich mit einem neuen optischen Messsystem, i-MeaS, das dem Deformationsmonitoring instabiler Felswände dienen soll, und derzeit an der Technischen Universität Wien entwickelt wird. Es beruht auf einem modifizierten Leica TCRA1201+, in dessen Strahlengang ein CMOS-Sensor eingebaut wurde. Zwei bildgebende Tachymeter kommen im Rahmen der Deformationsmessung zum Einsatz, und werden über eine Steuerungszentrale kontrolliert. Sie nehmen georeferenziert Aufnahmen vom Messobjekt auf. In den Aufnahmen werden mit dem OpenSURF-Algorithmus markante Punkte gesucht und einander zugeordnet, die in weiterer Folge vom Bildkoordinatensystem in
das Tachymeterkoordinatensystem übertragen werden. So kann jeder Objektpunkt koordinativ festgelegt werden. Die Messungen werden in den Folgeepochen wiederholt. Ziel ist es, eine möglichst große Menge gleicher Punkte am Objekt wiederzufinden. Das Deformationsmonitoring kommt somit ohne signalisierte Punkte aus. Um die Weiterentwicklung zu unterstützen wurden im Rahmen dieser Arbeit im Bereich Hardware, Software sowie theoretischer Aufgabenstellungen Tests durchgeführt, die eine Bewertung und Verbesserung des aktuellen Systems zulassen. Genauigkeitstests verschiedener Realisierungen der Messkonfiguration brachten die Erkenntnis, dass der Vorwärtsschnitt im Allgemeinen für das System besser geeignet ist als ein kombiniertes Polarverfahren. Dieser ist auch für lange Zielweiten einsetzbar und lässt demnach einen größeren Spielraum für verschiedene Realisierungen von Messkonfigurationen zu.
Labortest bestätigten eine hinreichende Sensorstabilität, deckten jedoch Unzulänglichkeiten in der Kabelmontage auf, die sich direkt auf die Anzielgenauigkeiten auswirkten.
Eine Reihe von unterschiedlichen Felsaufnahmen unter wechselnden Beleuchtungsbedingungen wurden mit dem OpenSURF-Algorithmus behandelt. Eine Abschätzung der wichtigsten Parametereinstellungen konnte somit getroffen werden. Durch eine vorangehende Bildbearbeitung mit einer adaptiven, kontrastlimitierten Histogrammequalisierung wurden die Ergebnisse weiter verbessert.
Bei Onlinetests konnten die gefundenen Resultate bestätigt und erweitert werden. Als ein wichtiger Punkte dieser Arbeit ergaben sich Überlegungen zu einem neuen Aufnahmekonzept, das ausschließlich mit Kugelkoordinaten arbeitet. Eine Effizienzsteigerung hinsichtlich Zeit und Datenvolumen könnte durch Reduktion der Anzahl der Aufnahmen erreicht werden, wodurch die Berechnungszeit um einen großen Teil reduziert werden könnte. Im Fall der Aufnahmereihe unter realen Bedingungen wurden für eine Referenz- und eine Folgeepoche eine Rechenzeit von insgesamt ungefähr 10 Stunden benötigt. Das neue Aufnahmekonzept würde grundlegend zur
Effizienzsteigerung beitragen, indem bis zu 6 Stunden eingespart werden können.
Diese Arbeit beschäftigt sich mit einem neuen optischen Messsystem, i-MeaS, das dem Deformationsmonitoring instabiler Felswände dienen soll, und derzeit an der Technischen Universität Wien entwickelt wird. Es beruht auf einem modifizierten Leica TCRA1201+, in dessen Strahlengang ein CMOS-Sensor eingebaut wurde. Zwei bildgebende Tachymeter kommen im Rahmen der Deformationsmessung zum Einsatz, und werden über eine Steuerungszentrale kontrolliert. Sie nehmen georeferenziert Aufnahmen vom Messobjekt auf. In den Aufnahmen werden mit dem OpenSURF-Algorithmus markante Punkte gesucht und einander zugeordnet, die in weiterer Folge vom Bildkoordinatensystem in
das Tachymeterkoordinatensystem übertragen werden. So kann jeder Objektpunkt koordinativ festgelegt werden. Die Messungen werden in den Folgeepochen wiederholt. Ziel ist es, eine möglichst große Menge gleicher Punkte am Objekt wiederzufinden. Das Deformationsmonitoring kommt somit ohne signalisierte Punkte aus. Um die Weiterentwicklung zu unterstützen wurden im Rahmen dieser Arbeit im Bereich Hardware, Software sowie theoretischer Aufgabenstellungen Tests durchgeführt, die eine Bewertung und Verbesserung des aktuellen Systems zulassen. Genauigkeitstests verschiedener Realisierungen der Messkonfiguration brachten die Erkenntnis, dass der Vorwärtsschnitt im Allgemeinen für das System besser geeignet ist als ein kombiniertes Polarverfahren. Dieser ist auch für lange Zielweiten einsetzbar und lässt demnach einen größeren Spielraum für verschiedene Realisierungen von Messkonfigurationen zu.
Labortest bestätigten eine hinreichende Sensorstabilität, deckten jedoch Unzulänglichkeiten in der Kabelmontage auf, die sich direkt auf die Anzielgenauigkeiten auswirkten.
Eine Reihe von unterschiedlichen Felsaufnahmen unter wechselnden Beleuchtungsbedingungen wurden mit dem OpenSURF-Algorithmus behandelt. Eine Abschätzung der wichtigsten Parametereinstellungen konnte somit getroffen werden. Durch eine vorangehende Bildbearbeitung mit einer adaptiven, kontrastlimitierten Histogrammequalisierung wurden die Ergebnisse weiter verbessert.
Bei Onlinetests konnten die gefundenen Resultate bestätigt und erweitert werden. Als ein wichtiger Punkte dieser Arbeit ergaben sich Überlegungen zu einem neuen Aufnahmekonzept, das ausschließlich mit Kugelkoordinaten arbeitet. Eine Effizienzsteigerung hinsichtlich Zeit und Datenvolumen könnte durch Reduktion der Anzahl der Aufnahmen erreicht werden, wodurch die Berechnungszeit um einen großen Teil reduziert werden könnte. Im Fall der Aufnahmereihe unter realen Bedingungen wurden für eine Referenz- und eine Folgeepoche eine Rechenzeit von insgesamt ungefähr 10 Stunden benötigt. Das neue Aufnahmekonzept würde grundlegend zur
Effizienzsteigerung beitragen, indem bis zu 6 Stunden eingespart werden können.
Suitability of Spatial Decision Support System Problems with Mobile AR Systems
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2010
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
Augmented Reality(AR) is a technology in which computer generated image optically superimposed in the real world environment and it can be used for many applications, such as manufacturing and repair, surgery, education, military, emergency situations, sightseeing etc. From the last several years, the government and private sector both are considering the spatial information plays an important role for the improved services and business applications with integration of AR technology, which leads to the evolution of AR technology as a separate platform for the spatial domain. Therefore AR opens up a lot of possibilities to make immersive or realistic decisions in real world problems especially for Spatial Decision Support System(SDSS) problems like urban and landscape planning, traffic monitoring and navigation, road, railway and building construction, cadastre ,telecommunications, utility management, real estate market, military applications and tourism are some of the most common examples. Hence this research work brings the information related to, the possibilities associated for solving the SDSS problems by using the mobile AR systems. The scope of this thesis is aimed at providing suitability on association of SDSS problems with mobile AR systems. Therefore this research work investigates the current status of the AR systems starting from available equipment to ending with the last achievements in the AR research field. The overview of this thesis concentrates on outdoor, wireless systems i.e. mobile augmented reality systems providing users with spatial information. Therefore this research work concludes that lot of research on existing AR projects has been exhibited with evidence of mode of procedure. Furthermore, suitability on association of SDSS problems with mobile AR systems were given by the use of analysis and evaluation methods which are working based on the chosen criteria catalogue.
Augmented Reality(AR) is a technology in which computer generated image optically superimposed in the real world environment and it can be used for many applications, such as manufacturing and repair, surgery, education, military, emergency situations, sightseeing etc. From the last several years, the government and private sector both are considering the spatial information plays an important role for the improved services and business applications with integration of AR technology, which leads to the evolution of AR technology as a separate platform for the spatial domain. Therefore AR opens up a lot of possibilities to make immersive or realistic decisions in real world problems especially for Spatial Decision Support System(SDSS) problems like urban and landscape planning, traffic monitoring and navigation, road, railway and building construction, cadastre ,telecommunications, utility management, real estate market, military applications and tourism are some of the most common examples. Hence this research work brings the information related to, the possibilities associated for solving the SDSS problems by using the mobile AR systems. The scope of this thesis is aimed at providing suitability on association of SDSS problems with mobile AR systems. Therefore this research work investigates the current status of the AR systems starting from available equipment to ending with the last achievements in the AR research field. The overview of this thesis concentrates on outdoor, wireless systems i.e. mobile augmented reality systems providing users with spatial information. Therefore this research work concludes that lot of research on existing AR projects has been exhibited with evidence of mode of procedure. Furthermore, suitability on association of SDSS problems with mobile AR systems were given by the use of analysis and evaluation methods which are working based on the chosen criteria catalogue.
Ein WebGIS mit integrierter wissensbasierter Plausibilitätskontrolle für die Wasserdatenbank des AIT
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2010
Betreuer: Dipl.-Ing. Brigitte Rudel
Betreuer: Dipl.-Ing. Brigitte Rudel
Kurzfassung/Abstract
Diese Arbeit beschäftigt sich mit der Objektivierung der Freigabe von Wassercheckanalysen des Unternehmens AIT. Durch die Entwicklung einer semiautomatischen Plausibilitätsprüfung über ein WebGIS-Frontend soll die Überprüfung der Laborergebnisse mittels räumlich-statistischer Methoden objektiviert und beschleunigt werden. Dem Experten sollen dabei neben den eigentlichen Messwerten auch statistische Informationen als Entscheidungsgrundlage dienen. Die entwickelte Plausibilitätskontrolle basiert auf einer Co-Kriging-Interpolation anhand der im Hydrologischen Atlas Österreichs ausgewiesenen Grundwasserkörper mithilfe der Software ArcGIS. Als Wissensbasis für die Interpolation dienen einerseits die bereits freigegebenen Analysen und die Porengrundwassermessstellen des Hydrologischen Atlas Österreichs. Zusätzlich erfolgt eine räumliche bzw. statistische Analyse der Umgebung der neuen Wassercheckanalysen. Dabei wird als räumliche Datenbank PostGIS mit der Anbindung des Open Source Statistikprogrammes R benutzt. Das WebGIS dient einerseits zur Visualisierung der freigegeben Analysen und zur Abfrage thematischer Informationen.
Diese Arbeit beschäftigt sich mit der Objektivierung der Freigabe von Wassercheckanalysen des Unternehmens AIT. Durch die Entwicklung einer semiautomatischen Plausibilitätsprüfung über ein WebGIS-Frontend soll die Überprüfung der Laborergebnisse mittels räumlich-statistischer Methoden objektiviert und beschleunigt werden. Dem Experten sollen dabei neben den eigentlichen Messwerten auch statistische Informationen als Entscheidungsgrundlage dienen. Die entwickelte Plausibilitätskontrolle basiert auf einer Co-Kriging-Interpolation anhand der im Hydrologischen Atlas Österreichs ausgewiesenen Grundwasserkörper mithilfe der Software ArcGIS. Als Wissensbasis für die Interpolation dienen einerseits die bereits freigegebenen Analysen und die Porengrundwassermessstellen des Hydrologischen Atlas Österreichs. Zusätzlich erfolgt eine räumliche bzw. statistische Analyse der Umgebung der neuen Wassercheckanalysen. Dabei wird als räumliche Datenbank PostGIS mit der Anbindung des Open Source Statistikprogrammes R benutzt. Das WebGIS dient einerseits zur Visualisierung der freigegeben Analysen und zur Abfrage thematischer Informationen.
Evaluation of the HAZUS-MH Loss Estimation Methodology for a Natural Risk Management Case Study in Carinthia, Austria
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2010
Betreuer: FH-Prof. Dr. Gernot Paulus (FH Kärnten), Prof. Dr. Michael Leitner (Louisiana State University)
Betreuer: FH-Prof. Dr. Gernot Paulus (FH Kärnten), Prof. Dr. Michael Leitner (Louisiana State University)
Kurzfassung/Abstract
In den letzten Jahren stiegen die durch Hochwasser hervorgerufenen Schäden in anthropogenen Zonen dramatisch an. Seit 1998 haben Überschwemmungen allein in der Europäischen Union (EU) schätzungsweise 700 Todesopfer gefordert, mehr als 500 Millionen EU-Bürger obdachlos gemacht und zirka 25 Milliarden EUR an wirtschaftlichen Schäden verursacht. Überflutungen wie beispielsweise das Jahrhunderthochwasser von 2002, welches hauptsächlich das Bundesland Niederösterreich heimsuchte und Schäden von mehr als 2 Milliarden Euro anrichtete, zeigen deutlich, dass auch Österreich nicht vor zerstörerischen Naturgefahren gefeit ist. Um soziale, infrastrukturelle, kulturelle und wirtschaftliche Verluste und hochwasserbedingte Schäden in der EU zu minimieren, wurde im Jahr 2007 eine Richtlinie erlassen. Das Ziel dieser Richtlinie ist es in erster Instanz das Schadenspotential für hochwassergefährdete Gebiete im gesamten EU-Raum zu evaluieren, um in weiterer Folge Strategien für den Hochwasserschutz entwickeln zu können. Diese Masterarbeit untersucht das Überflutungsmodel des Softwareprogrammes HAZards United States - Multi Hazards (HAZUS-MH). HAZUS-MH ist ein Werkzeug zur Evaluierung des Schadenspotentials von verschiedensten Naturgefahrenquellen. Ein Ziel dieser Arbeit ist es herauszufinden, ob HAZUS-MH mit Österreichischen Daten für die Implementierung der Hochwasser Richtlinie genutzt werden kann. Zum anderen wird des weiteren ein Workflow zur Integration von Österreichischen Daten präsentiert. Dieser Prozess wird anhand einer Pilotstudie im Bundesland Kärnten (Österreich) getestet und anschließend anhand von bereits existierenden Ergebnissen evaluiert.
In den letzten Jahren stiegen die durch Hochwasser hervorgerufenen Schäden in anthropogenen Zonen dramatisch an. Seit 1998 haben Überschwemmungen allein in der Europäischen Union (EU) schätzungsweise 700 Todesopfer gefordert, mehr als 500 Millionen EU-Bürger obdachlos gemacht und zirka 25 Milliarden EUR an wirtschaftlichen Schäden verursacht. Überflutungen wie beispielsweise das Jahrhunderthochwasser von 2002, welches hauptsächlich das Bundesland Niederösterreich heimsuchte und Schäden von mehr als 2 Milliarden Euro anrichtete, zeigen deutlich, dass auch Österreich nicht vor zerstörerischen Naturgefahren gefeit ist. Um soziale, infrastrukturelle, kulturelle und wirtschaftliche Verluste und hochwasserbedingte Schäden in der EU zu minimieren, wurde im Jahr 2007 eine Richtlinie erlassen. Das Ziel dieser Richtlinie ist es in erster Instanz das Schadenspotential für hochwassergefährdete Gebiete im gesamten EU-Raum zu evaluieren, um in weiterer Folge Strategien für den Hochwasserschutz entwickeln zu können. Diese Masterarbeit untersucht das Überflutungsmodel des Softwareprogrammes HAZards United States - Multi Hazards (HAZUS-MH). HAZUS-MH ist ein Werkzeug zur Evaluierung des Schadenspotentials von verschiedensten Naturgefahrenquellen. Ein Ziel dieser Arbeit ist es herauszufinden, ob HAZUS-MH mit Österreichischen Daten für die Implementierung der Hochwasser Richtlinie genutzt werden kann. Zum anderen wird des weiteren ein Workflow zur Integration von Österreichischen Daten präsentiert. Dieser Prozess wird anhand einer Pilotstudie im Bundesland Kärnten (Österreich) getestet und anschließend anhand von bereits existierenden Ergebnissen evaluiert.
Trajektorienbestimmung mittels Integration von GNSS und IMS - Genauigkeitsuntersuchung unterschiedlicher Systeme und Kopplungsarten
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2010
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Globale Satellitennavigationssysteme (GNSS) dienen vielen Anwendungen als zentrales Navigationsinstrument. Werden allerdings höhere Genauigkeiten und Zuverlässigkeiten gefordert oder soll zusätzlich die Ausrichtung des Vehikels bestimmt werden, müssen weitere Sensoren mit den GNSS-Empfängern kombiniert werden. In diesem weiten Feld der Sensorfusion hat sich die Integration von GNSS und inertialen Messsystemen (IMS) als besonders gewinnbringend herauskristallisiert.
Diese Masterarbeit untersucht die Integration von GNSS und IMS mit Fokus auf drei wichtigen Punkten:
Globale Satellitennavigationssysteme (GNSS) dienen vielen Anwendungen als zentrales Navigationsinstrument. Werden allerdings höhere Genauigkeiten und Zuverlässigkeiten gefordert oder soll zusätzlich die Ausrichtung des Vehikels bestimmt werden, müssen weitere Sensoren mit den GNSS-Empfängern kombiniert werden. In diesem weiten Feld der Sensorfusion hat sich die Integration von GNSS und inertialen Messsystemen (IMS) als besonders gewinnbringend herauskristallisiert.
Diese Masterarbeit untersucht die Integration von GNSS und IMS mit Fokus auf drei wichtigen Punkten:
- Auswertung mit kommerzieller Software und Einfluss einzelner Parameter
- Vergleich unterschiedlicher Preisklassen der Sensoren
- Vergleich unterschiedlicher Kopplungsarten der Integration
Baumartenerkennung mittels Full-Waveform Airborne Laserscanning
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2009
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Im Laufe der letzten Jahrzehnte hat sich das flugzeuggetragene Laserscanning (ALS) zu einem Standardverfahren zur Erfassung topographischer Daten entwickelt. Die zusätzlichen Beobachtungen von Amplitude und Echobreite bei Full-Waveform Laserscannerdaten erweitern das Potential von ALS. Neben der Berechnung von digitalen Geländemodellen können die Daten zur Ableitung forstwirtschaftlicher Parameter verwendet werden. In dieser Diplomarbeit werden Methoden erarbeitet, die einerseits ALS Daten ohne und andererseits mit Full-Waveform Information zur Bestimmung von Baumarten verwenden.
Dazu muss mittels eines Baumdetektionsverfahrens versucht werden, jene einzelnen beobachteten Punkte, welche auf einem Baum liegen, zu Segmenten zusammenzufassen.
Es werden drei neue, mittels Matlab erstellte, Verfahren zur Baumdetektion vorgestellt, welche alle auf der Basis des sweep-Algorithmus aufbauen.
Anschließend werden mittels Matlab programmierte Baumartenerkennungsalgorithmen vorgestellt, welche auf Basis der Geometrischen Kronenform, der Punktverteilung, dem Ratiowert und den Full-Waveform Informationen basieren. Ein Ausgleich über die einzelnen Bestimmungsparameter definiert anschließend die wahrscheinlichste Baumart für das jeweilige Segment. Diese Verfahren werden auf zwei sehr gegensätzlichen Testgebieten angewendet. Einerseits auf einer alpinen, rein forstwirtschaftlich genutzten Fläche mit hauptsächlich Fichtenbestand in Vorarlberg (Montafon) und andererseits in einer urbanen Umgebung mit gemischter Laubvegetation in Wien (Rathausplatz).
Für die Fläche in Vorarlberg liegen Laserscanningdaten ohne und in Wien mit Full- Waveform Informationen vor. Die Baumartenbestimmung in Vorarlberg erreicht einen Kappa-Wert von 0.74. In diesem Gebiet ist jedoch nur zwischen Fichte und Buche unterschieden worden. Die Baumartenbestimmung in Wien erreicht bei einer Unterscheidung von fünf Baumarten einen Kappa-Wert von 0.5.Wenn die Baumart Ahorn und Linde zu einer Baumartengruppe zusammengefasst werden, steigt auch in Wien der Kappa-Wert auf 0.73 an. Zusammenfassend kann gesagt werden, dass basierend auf den derzeitigen Stand der Technik und mittels der erarbeiteten Algorithmen durchaus Rückschlüsse auf die Baumart möglich sind, wenn die Segmentierung gute Ergebnisse liefert.
Im Laufe der letzten Jahrzehnte hat sich das flugzeuggetragene Laserscanning (ALS) zu einem Standardverfahren zur Erfassung topographischer Daten entwickelt. Die zusätzlichen Beobachtungen von Amplitude und Echobreite bei Full-Waveform Laserscannerdaten erweitern das Potential von ALS. Neben der Berechnung von digitalen Geländemodellen können die Daten zur Ableitung forstwirtschaftlicher Parameter verwendet werden. In dieser Diplomarbeit werden Methoden erarbeitet, die einerseits ALS Daten ohne und andererseits mit Full-Waveform Information zur Bestimmung von Baumarten verwenden.
Dazu muss mittels eines Baumdetektionsverfahrens versucht werden, jene einzelnen beobachteten Punkte, welche auf einem Baum liegen, zu Segmenten zusammenzufassen.
Es werden drei neue, mittels Matlab erstellte, Verfahren zur Baumdetektion vorgestellt, welche alle auf der Basis des sweep-Algorithmus aufbauen.
Anschließend werden mittels Matlab programmierte Baumartenerkennungsalgorithmen vorgestellt, welche auf Basis der Geometrischen Kronenform, der Punktverteilung, dem Ratiowert und den Full-Waveform Informationen basieren. Ein Ausgleich über die einzelnen Bestimmungsparameter definiert anschließend die wahrscheinlichste Baumart für das jeweilige Segment. Diese Verfahren werden auf zwei sehr gegensätzlichen Testgebieten angewendet. Einerseits auf einer alpinen, rein forstwirtschaftlich genutzten Fläche mit hauptsächlich Fichtenbestand in Vorarlberg (Montafon) und andererseits in einer urbanen Umgebung mit gemischter Laubvegetation in Wien (Rathausplatz).
Für die Fläche in Vorarlberg liegen Laserscanningdaten ohne und in Wien mit Full- Waveform Informationen vor. Die Baumartenbestimmung in Vorarlberg erreicht einen Kappa-Wert von 0.74. In diesem Gebiet ist jedoch nur zwischen Fichte und Buche unterschieden worden. Die Baumartenbestimmung in Wien erreicht bei einer Unterscheidung von fünf Baumarten einen Kappa-Wert von 0.5.Wenn die Baumart Ahorn und Linde zu einer Baumartengruppe zusammengefasst werden, steigt auch in Wien der Kappa-Wert auf 0.73 an. Zusammenfassend kann gesagt werden, dass basierend auf den derzeitigen Stand der Technik und mittels der erarbeiteten Algorithmen durchaus Rückschlüsse auf die Baumart möglich sind, wenn die Segmentierung gute Ergebnisse liefert.
Die Rolle einer inertialen Messeinheit in der Anwendung Moving-Base Gravimetry
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2010
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Inertiale Navigationssysteme (INS) ermöglichen die relative Positionsbestimmung anhand von Accelerometern und Kreiseln und kommen immer dann zum Einsatz, wenn die satellitengestützte Positionierung an ihre Grenzen stößt. Meist werden INS in Kombination mit GNSS eingesetzt, um die Genauigkeit und Zuverlässigkeit zu verbessern, bei entsprechender Qualität des INS ist jedoch auch eine eigenständige Positionsbestimmung mit sehr guter Genauigkeit auf kurze Zeit möglich. Diese Masterarbeit beinhaltet im ersten Teil Untersuchungen des qualitativ hochwertigen Strapdown INS iMar iNav-RQH-003. Zur Kontrolle der Spezifikationen und zur Untersuchung der Systemeigenschaften wurden mehrere Messungen unter Laborbedingungen sowie in der freien Natur durchgeführt, welche zum Teil mithilfe von Neigungssensoren kontrolliert wurden. Der zweite Teil der Arbeit befasst sich mit der Implementierung von Self-Alignment Algorithmen mit und ohne Fehlermodell sowie mit unterschiedlichen Integrationsverfahren in der Strapdown Auswertung. Es werden die entwickelten Algorithmen verglichen und es wird gezeigt, worauf bei der Datenaufzeichnung und der Auswertung besonders zu achten ist. Zusätzlich wird analysiert, inwieweit durch die Messdatenfilterung Verbesserungen erzielt werden können. Außerdem findet ein Vergleich mit der kommerziellen Software Inertial Explorer statt. Der dritte Teil der Arbeit beschäftigt sich mit der Strapdown Inertial Scalar Gravimetry, wobei anhand einiger Messfahrten und einiger stationärer Aufzeichnungen in Ruhe untersucht wird, ob die absolute und relative terrestrische Moving-Base Gravimetry im Stop-and-Go Modus möglich ist. Die Untersuchungen zur Moving-Base Gravimetry machen deutlich, dass aufgrund der Einschaltvariationen in den Accelerometer Biases die Absolutgravimetrie nicht möglich ist. Die Relativgravimetrie liefert Ergebnisse mit einer Standardabweichung < 5.6 mGal. Bei einem Vergleich mit Referenzwerten weichen diese im Mittel um nicht signifikante 4.2 mGal ab.
Inertiale Navigationssysteme (INS) ermöglichen die relative Positionsbestimmung anhand von Accelerometern und Kreiseln und kommen immer dann zum Einsatz, wenn die satellitengestützte Positionierung an ihre Grenzen stößt. Meist werden INS in Kombination mit GNSS eingesetzt, um die Genauigkeit und Zuverlässigkeit zu verbessern, bei entsprechender Qualität des INS ist jedoch auch eine eigenständige Positionsbestimmung mit sehr guter Genauigkeit auf kurze Zeit möglich. Diese Masterarbeit beinhaltet im ersten Teil Untersuchungen des qualitativ hochwertigen Strapdown INS iMar iNav-RQH-003. Zur Kontrolle der Spezifikationen und zur Untersuchung der Systemeigenschaften wurden mehrere Messungen unter Laborbedingungen sowie in der freien Natur durchgeführt, welche zum Teil mithilfe von Neigungssensoren kontrolliert wurden. Der zweite Teil der Arbeit befasst sich mit der Implementierung von Self-Alignment Algorithmen mit und ohne Fehlermodell sowie mit unterschiedlichen Integrationsverfahren in der Strapdown Auswertung. Es werden die entwickelten Algorithmen verglichen und es wird gezeigt, worauf bei der Datenaufzeichnung und der Auswertung besonders zu achten ist. Zusätzlich wird analysiert, inwieweit durch die Messdatenfilterung Verbesserungen erzielt werden können. Außerdem findet ein Vergleich mit der kommerziellen Software Inertial Explorer statt. Der dritte Teil der Arbeit beschäftigt sich mit der Strapdown Inertial Scalar Gravimetry, wobei anhand einiger Messfahrten und einiger stationärer Aufzeichnungen in Ruhe untersucht wird, ob die absolute und relative terrestrische Moving-Base Gravimetry im Stop-and-Go Modus möglich ist. Die Untersuchungen zur Moving-Base Gravimetry machen deutlich, dass aufgrund der Einschaltvariationen in den Accelerometer Biases die Absolutgravimetrie nicht möglich ist. Die Relativgravimetrie liefert Ergebnisse mit einer Standardabweichung < 5.6 mGal. Bei einem Vergleich mit Referenzwerten weichen diese im Mittel um nicht signifikante 4.2 mGal ab.
Qualitätsanalyse in Echtzeit verfügbarer Ionosphärenmodelle für die präzise Punktbestimmung (PPP)
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2010
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Precise Point Positioning (PPP) ist eine moderne Form der präzisen geodätischen Punktbestimmung, die sich auf Code- und Phasenmessungen eines einzelnen GNSS-Empfängers stützt. Im Gegensatz zu Differenzverfahren werden die benötigten Modelle der Satellitenbahnen und -uhren aus globalen oder regionalen Referenzstationsnetzen abgeleitet und dem Nutzer zum Beispiel über das Internet zur Verfügung gestellt. Das Verfahren zielt auf eine Subdezimetergenauigkeit ab und ist schon heute in vielen Postprocessing-Anwendungen im Einsatz. Bei Einfrequenzmessungen oder falls zur ganzzahligen Mehrdeutigkeitslösung auf die Bildung der ionosphärenfreien Linearkombination verzichtet werden soll, sind auch Modelle der ionosphärischen Verzögerung vorab bereit zu stellen. Diese Arbeit soll die verschiedenen echtzeitnah angebotenen Ionosphärenmodelle hinsichtlich ihrer Qualität und zeitlichen Verfügbarkeit erproben. Dazu werden die ionosphärischen Streckenkorrekturen der Modelle jeweils über einen Tag berechnet und analysiert. Außerdem werden die Auswirkungen der Korrekturen auf die PPP-Lösung beurteilt, indem die Ergebnisse mit der Lösung einer Zweifrequenzmessung verglichen werden.
Precise Point Positioning (PPP) ist eine moderne Form der präzisen geodätischen Punktbestimmung, die sich auf Code- und Phasenmessungen eines einzelnen GNSS-Empfängers stützt. Im Gegensatz zu Differenzverfahren werden die benötigten Modelle der Satellitenbahnen und -uhren aus globalen oder regionalen Referenzstationsnetzen abgeleitet und dem Nutzer zum Beispiel über das Internet zur Verfügung gestellt. Das Verfahren zielt auf eine Subdezimetergenauigkeit ab und ist schon heute in vielen Postprocessing-Anwendungen im Einsatz. Bei Einfrequenzmessungen oder falls zur ganzzahligen Mehrdeutigkeitslösung auf die Bildung der ionosphärenfreien Linearkombination verzichtet werden soll, sind auch Modelle der ionosphärischen Verzögerung vorab bereit zu stellen. Diese Arbeit soll die verschiedenen echtzeitnah angebotenen Ionosphärenmodelle hinsichtlich ihrer Qualität und zeitlichen Verfügbarkeit erproben. Dazu werden die ionosphärischen Streckenkorrekturen der Modelle jeweils über einen Tag berechnet und analysiert. Außerdem werden die Auswirkungen der Korrekturen auf die PPP-Lösung beurteilt, indem die Ergebnisse mit der Lösung einer Zweifrequenzmessung verglichen werden.
Spatial Decision Support Tool for Interdisciplinary Natural Risk Management for a Natural Risk Management Study in Carinthia, Austria
Studiengang Spatial Decision Support Systems, Fachhochschule Technikum Kärnten, 2010
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Betreuer: FH-Prof. Dr. Gernot Paulus, Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
The purpose of this master research paper is to prove it is possible to create an online tool for displaying data for multi-risk management, to be able to add custom data and to generate reports without the need to install complex programs on the users computer. It aims to be a tool that offers solutions for the analysis of risk exposure and damage potential and delivers information in any location, as long as there is an internet connection available.
The creation of such a tool requires a division of the processes that contribute to the risk analysis and to the damage potential calculation. Aside from the natural conclusion that it needs a database system, a server and a client application, it also has to be modular, in terms of adding the data, retrieving it, searching through it for hazard exposure and displaying it. This project will consist of a server application, which includes a database for storing the data and for storing the created analyses, a hazard management tool that will calculate the hazard exposure and the damage potential and a reporting tool that will make the resulting information readable to the user.
This project achieved its goal, by creating the above mentioned components, being able to deliver useful information back to the user, using a friendly interface and being constructed in such a way that many of improvements are possible, like creating more methods of analysis, providing a simple manner of creating more ways to represent the resulting data.
The purpose of this master research paper is to prove it is possible to create an online tool for displaying data for multi-risk management, to be able to add custom data and to generate reports without the need to install complex programs on the users computer. It aims to be a tool that offers solutions for the analysis of risk exposure and damage potential and delivers information in any location, as long as there is an internet connection available.
The creation of such a tool requires a division of the processes that contribute to the risk analysis and to the damage potential calculation. Aside from the natural conclusion that it needs a database system, a server and a client application, it also has to be modular, in terms of adding the data, retrieving it, searching through it for hazard exposure and displaying it. This project will consist of a server application, which includes a database for storing the data and for storing the created analyses, a hazard management tool that will calculate the hazard exposure and the damage potential and a reporting tool that will make the resulting information readable to the user.
This project achieved its goal, by creating the above mentioned components, being able to deliver useful information back to the user, using a friendly interface and being constructed in such a way that many of improvements are possible, like creating more methods of analysis, providing a simple manner of creating more ways to represent the resulting data.
GIS-gestützte Analyse in der Immobilienbewertung
Institut für Geoinformation, Technische Universität Graz, 2010
Betreuer: ao.Univ.-Prof. Dr. Norbert Bartelme
Betreuer: ao.Univ.-Prof. Dr. Norbert Bartelme
Kurzfassung/Abstract
Die Entwicklung von Grundstückspreisen und das aktuelle Preisniveau sind in der Immobilienbranche, in Bereichen der Wirtschaft, des Rechts, der Verwaltung, aber auch für private Bauherren von zentraler Bedeutung. In Österreich herrscht im Gegensatz zu anderen Ländern am Immobilienmarkt jedoch immer noch sehr wenig Transparenz. Während für viele Bereiche des täglichen Lebens laufend Indizes der preislichen Entwicklung veröffentlicht werden, fehlt diese Information am Grundstücksmarkt zur Gänze. Denn der von der Statistik Austria veröffentlichte, nationale Verbraucherpreisindex, ein wichtiger Inflationsmaßstab, berücksichtigt die Kosten für Grundstücke genau so wenig wie der Baukosten- oder der Baupreisindex. Für die Bewertung von Liegenschaften benötigen Immobiliensachverständige unbedingt verlässliche Informationen über die Preisentwicklung und das Preisniveau. Für den einzelnen Immobilienexperten ist die Ermittlung eines Preisindex aber sehr aufwändig und teuer, weil dazu eine mehrjährige Kaufpreissammlung notwendig ist. Genau hier setzt diese Masterarbeit an. Auf Basis der Immobiliendatenbank immo netZT, die eine solche Kaufpreissammlung darstellt, wird die Entwicklung der Grundstückspreise in der Steiermark im Zeitraum von 1995 bis 2008 untersucht. immo netZT ist ein kostenpflichtiges, öffentlich-zugängliches Service vom ZT-Datenforum in Graz. Der große, seit 1995 lückenlose, umfangreiche Geo-Datenbestand eignet sich hervorragend für Analysen der Preisentwicklung am Grundstücksmarkt. Es wird hiermit eine Anwendung in MS Access geschaffen, welche die preisliche Information aus der Immobiliendatenbank nützt, Ausreißer erkennt, eine Regressionsanalyse ausführt und dem Benutzer eine Zusammenstellung aller wichtigen Daten zur Entwicklung der Grundstückspreise und dem Preisniveau für eine bestimmte Region liefert. Landesweite Übersichten in Form von Berichten und GIS-gestützte Analysen anhand thematischer Karten lassen einen Rückschluss auf Preisverhältnisse und Entwicklungen am steirischen Grundstücksmarkt zu.
Die Entwicklung von Grundstückspreisen und das aktuelle Preisniveau sind in der Immobilienbranche, in Bereichen der Wirtschaft, des Rechts, der Verwaltung, aber auch für private Bauherren von zentraler Bedeutung. In Österreich herrscht im Gegensatz zu anderen Ländern am Immobilienmarkt jedoch immer noch sehr wenig Transparenz. Während für viele Bereiche des täglichen Lebens laufend Indizes der preislichen Entwicklung veröffentlicht werden, fehlt diese Information am Grundstücksmarkt zur Gänze. Denn der von der Statistik Austria veröffentlichte, nationale Verbraucherpreisindex, ein wichtiger Inflationsmaßstab, berücksichtigt die Kosten für Grundstücke genau so wenig wie der Baukosten- oder der Baupreisindex. Für die Bewertung von Liegenschaften benötigen Immobiliensachverständige unbedingt verlässliche Informationen über die Preisentwicklung und das Preisniveau. Für den einzelnen Immobilienexperten ist die Ermittlung eines Preisindex aber sehr aufwändig und teuer, weil dazu eine mehrjährige Kaufpreissammlung notwendig ist. Genau hier setzt diese Masterarbeit an. Auf Basis der Immobiliendatenbank immo netZT, die eine solche Kaufpreissammlung darstellt, wird die Entwicklung der Grundstückspreise in der Steiermark im Zeitraum von 1995 bis 2008 untersucht. immo netZT ist ein kostenpflichtiges, öffentlich-zugängliches Service vom ZT-Datenforum in Graz. Der große, seit 1995 lückenlose, umfangreiche Geo-Datenbestand eignet sich hervorragend für Analysen der Preisentwicklung am Grundstücksmarkt. Es wird hiermit eine Anwendung in MS Access geschaffen, welche die preisliche Information aus der Immobiliendatenbank nützt, Ausreißer erkennt, eine Regressionsanalyse ausführt und dem Benutzer eine Zusammenstellung aller wichtigen Daten zur Entwicklung der Grundstückspreise und dem Preisniveau für eine bestimmte Region liefert. Landesweite Übersichten in Form von Berichten und GIS-gestützte Analysen anhand thematischer Karten lassen einen Rückschluss auf Preisverhältnisse und Entwicklungen am steirischen Grundstücksmarkt zu.
Analyse des GNSS-Referenzstationsnetzes EPOSA - Modellierung systematischer Fehlereinflüsse
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2010
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
EPOSA ist ein Echtzeitpositionierungsdienst mit Österreich weiter Abdeckung, basierend auf 37 über das ganze Staatsgebiet verteilten GNSS-Referenzstationen. Die Dachmarke EPOSA entstand in Kooperation der Firmen ÖBB, BEWAG und WIENSTROM und wurde im Herbst 2009 das erste Mal der Öffentlichkeit vorgestellt. Die Herausforde¬rung in Referenzstationsnetzen besteht darin, aus den GNSS-Beobachtungsdaten der koordinativ sehr genau bekannten vernetzten Permanentstationen entfernungsabhängige Fehler zu modellieren und diese in Form von Korrekturdaten in Echtzeit an den Nutzer zu übertragen. Dieser verwendet die Daten um seine Position im Idealfall innerhalb von wenigen Sekunden mit cm-Genauigkeit zu bestimmen. Die Ansprüche, die nutzerseitig an Referenznetzbetreiber gestellt werden, sind sehr hoch. Zum einen muss die Qualität der abgegebenen Korrekturdaten eine cm-genaue Positionierung im gesamten Versorgungs¬gebiet erlauben. Zum anderen soll der Dienst jederzeit und mit hoher Zuverlässigkeit zur Verfügung stehen.
Das Ziel dieser Arbeit ist die reale Umsetzung dieser Vorgaben für den EPOSA Service zu untersuchen. Von den Betreibern des Referenzstationsnetzes wurden Datensätze zur Ver¬fügung gestellt, die es erlauben Zustandsparameter des Netzes abzuleiten. Die Qualität der Daten einzelner Referenzstationen wurde anhand des Signal-Rausch-Verhältnisses, auftretender Mehrwegeausbreitungen und möglicher Abschattungen untersucht. Des Weiteren wurden die Zustandsdaten hinsichtlich der Verfügbarkeit des Dienstes, dem Zeitaufwand zur Festsetzung der Mehrdeutigkeiten innerhalb der Netzdaten und der Initialisierungszeit am Rover ausgewertet. Über den Auswertungszeitraum September 2009 konnte eine Verfügbarkeit des Dienstes zu 94% gewährleistet werden. Potential zu Verbesserungen ist bezüglich der Festsetzung der Mehrdeutigkeiten von Satellitenbe¬obachtungen in geringer Elevation und der darauf basierenden erreichbaren Qualität der Korrekturparameter gegeben. Auf fast allen Stationen konnte eine sehr gute Per¬formance erreicht werden. Bei einer Aufstelldauer von 30 Sekunden bis 2 Minuten ist für den Nutzer durch die Verwendung der Echtzeit-Korrekturdaten eine hochgenaue Positionierung selbst im alpinen Raum des Versorgungsgebietes möglich.
EPOSA ist ein Echtzeitpositionierungsdienst mit Österreich weiter Abdeckung, basierend auf 37 über das ganze Staatsgebiet verteilten GNSS-Referenzstationen. Die Dachmarke EPOSA entstand in Kooperation der Firmen ÖBB, BEWAG und WIENSTROM und wurde im Herbst 2009 das erste Mal der Öffentlichkeit vorgestellt. Die Herausforde¬rung in Referenzstationsnetzen besteht darin, aus den GNSS-Beobachtungsdaten der koordinativ sehr genau bekannten vernetzten Permanentstationen entfernungsabhängige Fehler zu modellieren und diese in Form von Korrekturdaten in Echtzeit an den Nutzer zu übertragen. Dieser verwendet die Daten um seine Position im Idealfall innerhalb von wenigen Sekunden mit cm-Genauigkeit zu bestimmen. Die Ansprüche, die nutzerseitig an Referenznetzbetreiber gestellt werden, sind sehr hoch. Zum einen muss die Qualität der abgegebenen Korrekturdaten eine cm-genaue Positionierung im gesamten Versorgungs¬gebiet erlauben. Zum anderen soll der Dienst jederzeit und mit hoher Zuverlässigkeit zur Verfügung stehen.
Das Ziel dieser Arbeit ist die reale Umsetzung dieser Vorgaben für den EPOSA Service zu untersuchen. Von den Betreibern des Referenzstationsnetzes wurden Datensätze zur Ver¬fügung gestellt, die es erlauben Zustandsparameter des Netzes abzuleiten. Die Qualität der Daten einzelner Referenzstationen wurde anhand des Signal-Rausch-Verhältnisses, auftretender Mehrwegeausbreitungen und möglicher Abschattungen untersucht. Des Weiteren wurden die Zustandsdaten hinsichtlich der Verfügbarkeit des Dienstes, dem Zeitaufwand zur Festsetzung der Mehrdeutigkeiten innerhalb der Netzdaten und der Initialisierungszeit am Rover ausgewertet. Über den Auswertungszeitraum September 2009 konnte eine Verfügbarkeit des Dienstes zu 94% gewährleistet werden. Potential zu Verbesserungen ist bezüglich der Festsetzung der Mehrdeutigkeiten von Satellitenbe¬obachtungen in geringer Elevation und der darauf basierenden erreichbaren Qualität der Korrekturparameter gegeben. Auf fast allen Stationen konnte eine sehr gute Per¬formance erreicht werden. Bei einer Aufstelldauer von 30 Sekunden bis 2 Minuten ist für den Nutzer durch die Verwendung der Echtzeit-Korrekturdaten eine hochgenaue Positionierung selbst im alpinen Raum des Versorgungsgebietes möglich.
Möglichkeiten der nutzerspezifischen Gestaltung von LBS mit Daten aus Social Networks
Institut für Geoinformation und Kartographie, Forschungsgruppe Kartographie, Technische Universität Wien, 2010
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Betreuer: Univ.Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Standortbezogene Dienste (Location Based Services, kurz LBS) haben in den letzten Jahren im Bereich der mobilen Anwendungen zunehmend an Bedeutung gewonnen, weil in der Entwicklung von Positionierungsverfahren, Kommunikationstechnologien und leistungsfähigen Endgeräten bedeutende Fortschritte gemacht wurden.
Ebenso erfreuen sich Soziale Netzwerke zunehmender Beliebtheit. Eine der größten Herausforderungen standortbezogener Dienste ist die nutzerbezogenen Gestaltung der Dienstleistung. Soziale Netzwerke enthalten eine Vielzahl an Nutzerinformationen. Daher ist das Ziel dieser Diplomarbeit die Erarbeitung eines Konzepts, mit welchem Daten aus Sozialen Netzwerken in den Personalisierungsprozess von standortbezogenen Diensten integriert werden können. Das Auslesen der Nutzerdaten aus den Sozialen Netzwerken soll mit Googles Programmierschnittstelle OpenSocial erfolgen.
Die vorgestellten Methoden betreffen einerseits die Selektion und Filterung von nutzerrelevanten Objekten aus einer Menge von Datenbankeinträgen und andererseits die Personalisierung der Visualisierung ortsbezogener Daten. Ein dritter Aspekt ist die Möglichkeit Interaktionsinformationen aus Sozialen Netzwerken für die Entwicklung eines Bewertungssystems von Suchergebnissen zu nutzen. Die Filterung nutzerrelevanter Daten wird im Rahmen einer, als Mashup realisierten, Beispielanwendung angewandt.
Nach einer kurzen Einleitung beginnt die Arbeit mit einer Einführung in die Grundlagen von standortbezogenen Diensten und des Web 2.0. Es folgt eine Diskussion über die Personalisierung von ortsbezogenen Dienstleistungen in der hauptsächlich auf die Bedeutung der Begriffe Kontext und Adaption eingegangen wird. Anschließend wird die Datenstruktur von Sozialen Netzwerken analysiert und die OpenSocial API evaluiert. Es folgt eine Beschreibung des entwickelten Konzeptes.
Anschließend wird auf die programmtechnische Umsetzung eines Teilaspekts (der Filterung von nutzerbezogenen Inhalten) des vorgestellten Konzepts eingegangen wird. Am Ende der Diplomarbeit stehen eine Zusammenfassung und ein Ausblick auf offene Forschungsfragen.
Standortbezogene Dienste (Location Based Services, kurz LBS) haben in den letzten Jahren im Bereich der mobilen Anwendungen zunehmend an Bedeutung gewonnen, weil in der Entwicklung von Positionierungsverfahren, Kommunikationstechnologien und leistungsfähigen Endgeräten bedeutende Fortschritte gemacht wurden.
Ebenso erfreuen sich Soziale Netzwerke zunehmender Beliebtheit. Eine der größten Herausforderungen standortbezogener Dienste ist die nutzerbezogenen Gestaltung der Dienstleistung. Soziale Netzwerke enthalten eine Vielzahl an Nutzerinformationen. Daher ist das Ziel dieser Diplomarbeit die Erarbeitung eines Konzepts, mit welchem Daten aus Sozialen Netzwerken in den Personalisierungsprozess von standortbezogenen Diensten integriert werden können. Das Auslesen der Nutzerdaten aus den Sozialen Netzwerken soll mit Googles Programmierschnittstelle OpenSocial erfolgen.
Die vorgestellten Methoden betreffen einerseits die Selektion und Filterung von nutzerrelevanten Objekten aus einer Menge von Datenbankeinträgen und andererseits die Personalisierung der Visualisierung ortsbezogener Daten. Ein dritter Aspekt ist die Möglichkeit Interaktionsinformationen aus Sozialen Netzwerken für die Entwicklung eines Bewertungssystems von Suchergebnissen zu nutzen. Die Filterung nutzerrelevanter Daten wird im Rahmen einer, als Mashup realisierten, Beispielanwendung angewandt.
Nach einer kurzen Einleitung beginnt die Arbeit mit einer Einführung in die Grundlagen von standortbezogenen Diensten und des Web 2.0. Es folgt eine Diskussion über die Personalisierung von ortsbezogenen Dienstleistungen in der hauptsächlich auf die Bedeutung der Begriffe Kontext und Adaption eingegangen wird. Anschließend wird die Datenstruktur von Sozialen Netzwerken analysiert und die OpenSocial API evaluiert. Es folgt eine Beschreibung des entwickelten Konzeptes.
Anschließend wird auf die programmtechnische Umsetzung eines Teilaspekts (der Filterung von nutzerbezogenen Inhalten) des vorgestellten Konzepts eingegangen wird. Am Ende der Diplomarbeit stehen eine Zusammenfassung und ein Ausblick auf offene Forschungsfragen.
Atmosphärische Anregungsfunktionen berechnet aus Daten des ECMWF
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2008
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
In der vorliegenden Diplomarbeit werden aus Integralen der Dichte und des Windfeldes über die Atmosphäre, genannt Drehimpulsfunktionen, Änderungen der Erdrotationsparameter Tageslänge (LOD) und Polbewegung berechnet. Die Eingabedaten stammen vom ECMWF (European Centre for Medium-Range Weather Forecasts). Es werden insgesamt 14 Berechnungsvarianten verwendet und die Ergebnisse mit den geodätischen Beobachtungen des CONT05-Beobachtungsprogrammes (September 2005), der Zeitreihe C04 und dem Bulletin B des IERS (International Earth Rotation and Reference System Service) sowie mit ähnlichen Berechnungen aus NCEP-Daten (National Centers for Environmental Prediction) verglichen. Im Fall der Polbewegung werden die Vergleiche sowohl zwischen berechneten und beobachteten Koordinaten angestellt (Integrationsansatz) als auch zwischen den Drehimpulsfunktionen, wie sie aus Atmosphärendaten und der beobachteten Polbewegung berechnet werden können (direkter Ansatz). Die besten RMS-Abweichungen liegen im direkten Ansatz bei 30 mas, im Integrationsansatz bei 0.7 mas. Die besten RMS-Abweichungen von LOD liegen bei 22 μs. Die besten Ergebnisse sind mit der C04-Zeitreihe zu erzielen, die hohe Auflösung der CONT05-Zeitreihen bringen wegen des starken Rauschens keinen Genauigkeitsgewinn. Für die Polbewegung sind NCEP-Daten etwas besser, für LOD bringen ECMWF-Daten bessere Ergebnisse, da sie höher hinaufreichen. In Zukunft sind Fortschritte bei der Berechnung der Erdrotationsparameter aus geophysikalischen Größen für Perioden länger als 1 Tag durch zusätzliche Einbeziehung der Ozeaneffekte und die Bearbeitung längerer Zeitreihen zu erzielen.
In der vorliegenden Diplomarbeit werden aus Integralen der Dichte und des Windfeldes über die Atmosphäre, genannt Drehimpulsfunktionen, Änderungen der Erdrotationsparameter Tageslänge (LOD) und Polbewegung berechnet. Die Eingabedaten stammen vom ECMWF (European Centre for Medium-Range Weather Forecasts). Es werden insgesamt 14 Berechnungsvarianten verwendet und die Ergebnisse mit den geodätischen Beobachtungen des CONT05-Beobachtungsprogrammes (September 2005), der Zeitreihe C04 und dem Bulletin B des IERS (International Earth Rotation and Reference System Service) sowie mit ähnlichen Berechnungen aus NCEP-Daten (National Centers for Environmental Prediction) verglichen. Im Fall der Polbewegung werden die Vergleiche sowohl zwischen berechneten und beobachteten Koordinaten angestellt (Integrationsansatz) als auch zwischen den Drehimpulsfunktionen, wie sie aus Atmosphärendaten und der beobachteten Polbewegung berechnet werden können (direkter Ansatz). Die besten RMS-Abweichungen liegen im direkten Ansatz bei 30 mas, im Integrationsansatz bei 0.7 mas. Die besten RMS-Abweichungen von LOD liegen bei 22 μs. Die besten Ergebnisse sind mit der C04-Zeitreihe zu erzielen, die hohe Auflösung der CONT05-Zeitreihen bringen wegen des starken Rauschens keinen Genauigkeitsgewinn. Für die Polbewegung sind NCEP-Daten etwas besser, für LOD bringen ECMWF-Daten bessere Ergebnisse, da sie höher hinaufreichen. In Zukunft sind Fortschritte bei der Berechnung der Erdrotationsparameter aus geophysikalischen Größen für Perioden länger als 1 Tag durch zusätzliche Einbeziehung der Ozeaneffekte und die Bearbeitung längerer Zeitreihen zu erzielen.
Vervollständigung von Stadtmodellen mittels Distanzkameras
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2010
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Nobert Pfeifer
Kurzfassung/Abstract
In letzter Zeit steigt der Bedarf an immer detaillierteren 3D-Stadtmodellen. Typischerweise werden zur Erfassung der Daten, aus denen in weiterer Folge ein Modell abgeleitet wird, flugzeuggetragenes Laserscanning und Luftbildphotogrammetrie eingesetzt. Zur Erstellung von hoch detaillierten Stadtmodellen sind zusätzlich auch terrestrische Methoden notwendig.
Beim sogenannten 'Range Imaging' (RIM) kommen Kameras zum Einsatz, deren Sensoren für alle Pixel gleichzeitig die Laufzeit eines emittierten Signals bestimmen, woraus die Distanzen zum Objekt unmittelbar bestimmbar sind. Gleichzeitig zur Distanz wird die Amplitude des reflektierten Signals aufgezeichnet, sodass neben dem Distanzbild ein Amplitudenbild erzeugt werden kann, wobei mehrere Bilder pro Sekunde aufgenommen werden können. Spezielle Kameras, welche auf Photomischdetektoren (PMD) basieren, werden mittlerweile kostengünstig in Serie produziert. PMD-Kameras weisen maximale Aufnahmedistanzen von etwa zehn Me-tern auf, weshalb sich diese potentiell für terrestrische Detailaufnahmen zur Erstellung von Stadtmodellen eignen.
In der vorliegenden Arbeit wird ein Verfahren vorgestellt, mithilfe dessen es möglich ist, aus den mit einer Distanzkamera gewonnenen Daten ein Objekt in der Größenordnung von mehreren Metern aufzuzeichnen, und daraus ein Modell abzuleiten. Dabei treten für Distanzkameras extrem große Distanzen auf, wodurch insbesondere die Distanzbilder ein starkes Rauschen aufweisen. Aufgrund dessen wird die Kamera während der Aufnahmen auf ein Stativ montiert, und eine Sequenz von Bildern mit gleicher Orientierung gemittelt (statische Bilder). Die Orientierung der Aufnahmen erfolgt in zwei Stufen. Zur näherungsweisen Orientierung werden die Amplitudenbilder und die Distanzbilder, die während der Bewegung der Kamera zwischen den statischen Bildern aufgezeichnet wurden (bewegte Bilder), verwendet. In den Amplitudenbildern, die eine höhere Präzision als die Distanzbilder aufweisen, werden mittels des Speeded-Up Robust Features(SURF)-Algorithmus Verknüpfungspunkte im Bildraum ermittelt. Die Distanzbilder werden verwendet, um diese Verknüpfungspunkte in den Objektraum zu übertragen und die Orientierung eines Bildes mittels eines räumlichen Rückwärtsschnittes aus jener des vorangehenden Bildes zu berechnen. Die Fein-Orientierung erfolgt über 3D-Punktwolken, die aus den statischen Distanzbildern durch eine Variante des Iterative Closest Point (ICP) - Algorithmus berechnet werden. Als Modell und Ergebnis dient eine Triangulation der fein-orientierten, vereinigten Punktwolken.
Zur beispielhaften Anwendung dieses Verfahrens wird ein Teil einer Einkaufspassage aufgezeichnet und ausgewertet. Das Ergebnis nach der Modellierung ist optisch ansprechend, weist jedoch einen erheblichen Unterschied in der Skalierung zwischen Objekt und Modell auf. Zudem sind lokale Deformationen im Modell vorhanden.
In letzter Zeit steigt der Bedarf an immer detaillierteren 3D-Stadtmodellen. Typischerweise werden zur Erfassung der Daten, aus denen in weiterer Folge ein Modell abgeleitet wird, flugzeuggetragenes Laserscanning und Luftbildphotogrammetrie eingesetzt. Zur Erstellung von hoch detaillierten Stadtmodellen sind zusätzlich auch terrestrische Methoden notwendig.
Beim sogenannten 'Range Imaging' (RIM) kommen Kameras zum Einsatz, deren Sensoren für alle Pixel gleichzeitig die Laufzeit eines emittierten Signals bestimmen, woraus die Distanzen zum Objekt unmittelbar bestimmbar sind. Gleichzeitig zur Distanz wird die Amplitude des reflektierten Signals aufgezeichnet, sodass neben dem Distanzbild ein Amplitudenbild erzeugt werden kann, wobei mehrere Bilder pro Sekunde aufgenommen werden können. Spezielle Kameras, welche auf Photomischdetektoren (PMD) basieren, werden mittlerweile kostengünstig in Serie produziert. PMD-Kameras weisen maximale Aufnahmedistanzen von etwa zehn Me-tern auf, weshalb sich diese potentiell für terrestrische Detailaufnahmen zur Erstellung von Stadtmodellen eignen.
In der vorliegenden Arbeit wird ein Verfahren vorgestellt, mithilfe dessen es möglich ist, aus den mit einer Distanzkamera gewonnenen Daten ein Objekt in der Größenordnung von mehreren Metern aufzuzeichnen, und daraus ein Modell abzuleiten. Dabei treten für Distanzkameras extrem große Distanzen auf, wodurch insbesondere die Distanzbilder ein starkes Rauschen aufweisen. Aufgrund dessen wird die Kamera während der Aufnahmen auf ein Stativ montiert, und eine Sequenz von Bildern mit gleicher Orientierung gemittelt (statische Bilder). Die Orientierung der Aufnahmen erfolgt in zwei Stufen. Zur näherungsweisen Orientierung werden die Amplitudenbilder und die Distanzbilder, die während der Bewegung der Kamera zwischen den statischen Bildern aufgezeichnet wurden (bewegte Bilder), verwendet. In den Amplitudenbildern, die eine höhere Präzision als die Distanzbilder aufweisen, werden mittels des Speeded-Up Robust Features(SURF)-Algorithmus Verknüpfungspunkte im Bildraum ermittelt. Die Distanzbilder werden verwendet, um diese Verknüpfungspunkte in den Objektraum zu übertragen und die Orientierung eines Bildes mittels eines räumlichen Rückwärtsschnittes aus jener des vorangehenden Bildes zu berechnen. Die Fein-Orientierung erfolgt über 3D-Punktwolken, die aus den statischen Distanzbildern durch eine Variante des Iterative Closest Point (ICP) - Algorithmus berechnet werden. Als Modell und Ergebnis dient eine Triangulation der fein-orientierten, vereinigten Punktwolken.
Zur beispielhaften Anwendung dieses Verfahrens wird ein Teil einer Einkaufspassage aufgezeichnet und ausgewertet. Das Ergebnis nach der Modellierung ist optisch ansprechend, weist jedoch einen erheblichen Unterschied in der Skalierung zwischen Objekt und Modell auf. Zudem sind lokale Deformationen im Modell vorhanden.
Automatische Generierung von Kronenoberflächenmodellen in bewaldeten Gebieten aus hochauflösenden digitalen UltracamD Luftbildern unter Verwendung multipler Stereobildpaare
Institut für Fernerkundung und Photogrammetrie, Technische Universität Graz, 2010
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Betreuer:. Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Digitale Oberflächenmodelle stellen wichtige Planungsgrundlagen für verschiedenste Applikationen dar. Die automatische Ableitung forstlicher Parameter wie Baumhöhe, Stammzahl und Kronendurchmesser stellt eine dieser Applikationen dar. Die Verfügbarkeit digitaler hochauflösender extrem überlappender Ultracam Luftbilder eröffnet neue Perspektiven bezüglich einer automatischen Erstellung von Oberflächenmodellen. Ziel dieser Arbeit war die Erstellung eines Oberflächenmodelles aus dem Ultracam Daten unter Ausnutzung der vorhandenen Mehrfachüberlappungen.
Gleichzeitig wurde ein Vergleichsmodell aus zwei Bildern erstellt, dass dem klassischen Ansatz eines einzelnen Stereobildpaares entspricht. Die erstellten Modelle wurden anhand von Laserscannerdaten und im Feld erhobenen Referenzdaten evaluiert. Erwartungsgemäß zeigte der Ansatz mittels MULTI-Bildkorrelation im Vergleich zum klassischen Stereobildpaar deutliche Verbesserungen in der Erfassung von vertikal stark strukturierten Bereichen wie Waldflächen. Speziell im Bereich von Waldrändern und Einzelbäumen zeigten sich deutliche Qualitätsverbesserungen in der 3D-Rekonstruktion. Im Vergleich zu 356 im Feld gemessenen Baumhöhen unterschätzt das DOM aus dem MULTI-Bildansatz die Baumhöhen im Mittel um 0.8 m, und das DOM aus dem Zwei-Bildansatz um 1.3 m. Ein Vergleich mit einem LiDAR DOM bestätigt die Konkurrenzfähigkeit des MULTI-Bildansatzes bezüglich der Nachbildung von Kronenformen und der Erfassung von Einzelbäumen und deren Höhen.
Digitale Oberflächenmodelle stellen wichtige Planungsgrundlagen für verschiedenste Applikationen dar. Die automatische Ableitung forstlicher Parameter wie Baumhöhe, Stammzahl und Kronendurchmesser stellt eine dieser Applikationen dar. Die Verfügbarkeit digitaler hochauflösender extrem überlappender Ultracam Luftbilder eröffnet neue Perspektiven bezüglich einer automatischen Erstellung von Oberflächenmodellen. Ziel dieser Arbeit war die Erstellung eines Oberflächenmodelles aus dem Ultracam Daten unter Ausnutzung der vorhandenen Mehrfachüberlappungen.
Gleichzeitig wurde ein Vergleichsmodell aus zwei Bildern erstellt, dass dem klassischen Ansatz eines einzelnen Stereobildpaares entspricht. Die erstellten Modelle wurden anhand von Laserscannerdaten und im Feld erhobenen Referenzdaten evaluiert. Erwartungsgemäß zeigte der Ansatz mittels MULTI-Bildkorrelation im Vergleich zum klassischen Stereobildpaar deutliche Verbesserungen in der Erfassung von vertikal stark strukturierten Bereichen wie Waldflächen. Speziell im Bereich von Waldrändern und Einzelbäumen zeigten sich deutliche Qualitätsverbesserungen in der 3D-Rekonstruktion. Im Vergleich zu 356 im Feld gemessenen Baumhöhen unterschätzt das DOM aus dem MULTI-Bildansatz die Baumhöhen im Mittel um 0.8 m, und das DOM aus dem Zwei-Bildansatz um 1.3 m. Ein Vergleich mit einem LiDAR DOM bestätigt die Konkurrenzfähigkeit des MULTI-Bildansatzes bezüglich der Nachbildung von Kronenformen und der Erfassung von Einzelbäumen und deren Höhen.
Untersuchung des mobilen Feldkomparators FC 2009 für die Bestimmung des zyklischen Phasenfehlers von EDM-Geräten
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2010
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Betreuer: Dipl.-Ing. Dr. Helmut Woschitz
Kurzfassung/Abstract
Die Existenz von zyklischen Fehlern bei elektrooptischen Distanzmessern ist seit vielen Jahren bekannt. Durch die rasante Entwicklung von leistungsfähigen und hochgenauen Messinstrumenten in den vergangenen Jahren ist die Bedeutung des zyklischen Fehlers jedoch zurückgegangen und dieser wird heute oft ignoriert. Bei Präzisionsmessungen spielt dieser Fehler aber nach wie vor eine wichtige Rolle und die Bestimmung des zyklischen Fehlers ist ein wesentlicher Bestandteil bei der Kalibrierung von elektronischen Distanzmessgeräten. Für eine Modellierung werden Informationen über das Verhalten des zyklischen Fehlers über den gesamten Messbereich des EDM-Geräts benötigt. Daher ist eine Bestimmung des zyklischen Phasenfehlers auf einer EDM-Prüfanlage in einem Labor mit in der Regel eher kurzen Kalibrierstrecken (oft unter 50
m) nicht ohne Annahmen möglich. Am Institut für Ingenieurgeodäsie und Messsysteme der Technischen Universität Graz wurde daher als Ergänzung des bestehenden 30 m langen Horizontalkomparators ein mobiler Feldkomparator gebaut, der zur Bestimmung des zyklischen Phasenfehlers bei beliebigen, im Messbereich des jeweiligen Gerätes liegenden, Distanzen verwendet werden kann. Dieser mobile Feldkomparator, mit einem
3 m langen Heidenhain Glasmaßstab als Längenreferenz, wird im Zuge dieser Masterarbeit erstmals untersucht und eingesetzt. Neben der Untersuchung der Eigenschaften des mobilen Feldkomparators wurde ein prinzipieller Funktionstest, und Tests zur Beurteilung der Feldtauglichkeit durchgeführt sowie Korrekturen erarbeitet, ohne die die geforderte Genauigkeit nicht erreicht werden kann. Weiters wird ein geeigneter Messablauf beschrieben, der die Möglichkeit einer semiautomatischen Messung aufzeigt. Dieser wurde anhand einer exemplarischen Bestimmung des zyklischen Fehlers bei einem Distanzbereich außerhalb des Labors getestet und damit ein experimenteller Eignungstest des mobilen Feldkomparators durchgeführt.
Die Arbeit liefert damit alle nötigen Grundlagen um die Bestimmung des zyklischen Phasenfehlers mit dem neu entwickelten mobilen Feldkomparator durchführen zu können und ermöglicht damit künftig Detailuntersuchungen individueller Geräte.
Die Existenz von zyklischen Fehlern bei elektrooptischen Distanzmessern ist seit vielen Jahren bekannt. Durch die rasante Entwicklung von leistungsfähigen und hochgenauen Messinstrumenten in den vergangenen Jahren ist die Bedeutung des zyklischen Fehlers jedoch zurückgegangen und dieser wird heute oft ignoriert. Bei Präzisionsmessungen spielt dieser Fehler aber nach wie vor eine wichtige Rolle und die Bestimmung des zyklischen Fehlers ist ein wesentlicher Bestandteil bei der Kalibrierung von elektronischen Distanzmessgeräten. Für eine Modellierung werden Informationen über das Verhalten des zyklischen Fehlers über den gesamten Messbereich des EDM-Geräts benötigt. Daher ist eine Bestimmung des zyklischen Phasenfehlers auf einer EDM-Prüfanlage in einem Labor mit in der Regel eher kurzen Kalibrierstrecken (oft unter 50
m) nicht ohne Annahmen möglich. Am Institut für Ingenieurgeodäsie und Messsysteme der Technischen Universität Graz wurde daher als Ergänzung des bestehenden 30 m langen Horizontalkomparators ein mobiler Feldkomparator gebaut, der zur Bestimmung des zyklischen Phasenfehlers bei beliebigen, im Messbereich des jeweiligen Gerätes liegenden, Distanzen verwendet werden kann. Dieser mobile Feldkomparator, mit einem
3 m langen Heidenhain Glasmaßstab als Längenreferenz, wird im Zuge dieser Masterarbeit erstmals untersucht und eingesetzt. Neben der Untersuchung der Eigenschaften des mobilen Feldkomparators wurde ein prinzipieller Funktionstest, und Tests zur Beurteilung der Feldtauglichkeit durchgeführt sowie Korrekturen erarbeitet, ohne die die geforderte Genauigkeit nicht erreicht werden kann. Weiters wird ein geeigneter Messablauf beschrieben, der die Möglichkeit einer semiautomatischen Messung aufzeigt. Dieser wurde anhand einer exemplarischen Bestimmung des zyklischen Fehlers bei einem Distanzbereich außerhalb des Labors getestet und damit ein experimenteller Eignungstest des mobilen Feldkomparators durchgeführt.
Die Arbeit liefert damit alle nötigen Grundlagen um die Bestimmung des zyklischen Phasenfehlers mit dem neu entwickelten mobilen Feldkomparator durchführen zu können und ermöglicht damit künftig Detailuntersuchungen individueller Geräte.
Qualitätssicherung von Verkehrsnetzgraphen für eine nationale Geodateninfrastruktur
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2010
Betreuer: Dipl.-Ing. Roland Grillmayer
Betreuer: Dipl.-Ing. Roland Grillmayer
Kurzfassung/Abstract
Die Graphenintegrationsplattform (GIP) des Unternehmens PRISMA solutions ermöglicht es, einen einheitlich modellierten multimodalen Gesamtverkehrsnetzgraphen für die verschiedenartigsten Anforderungen von unterschiedlichen Anwendungsbereichen wie e-Government, Verkehrsmanagement, Verkehrsplanung sowie Verkehrstechnik in einem gemeinsamen einheitlichen Datenhaltungssystem abzubilden. Um die Qualität der einzelnen GIP-Anwendungsbereiche sicherstellen zu können, müssen Datenqualitätsprüfungen durchgeführt werden.
Die Thesis umfasst die Analyse bestehender und erforderlicher Qualitätsprüfungen an den GIP-Datenmodellobjektarten und GIP-Datenmodellebenenverknüpfungen sowie Modellierungssituationen der GIP. Darüber hinaus werden von entwickelten Prüfroutinen die jeweiligen Qualitätsprüfungsergebnisse auf ihre Zielwirksamkeit analysiert. Ziel der Thesis ist, durch die Entwicklung eines Konzepts zur Qualitätssicherung, die Datenqualität der GIP-Anwendungsbereiche nachhaltig zu sichern und eine Qualitätsverbesserung durch die Erweiterung notwendiger Qualitätsprüfungen zu schaffen.
Die Graphenintegrationsplattform (GIP) des Unternehmens PRISMA solutions ermöglicht es, einen einheitlich modellierten multimodalen Gesamtverkehrsnetzgraphen für die verschiedenartigsten Anforderungen von unterschiedlichen Anwendungsbereichen wie e-Government, Verkehrsmanagement, Verkehrsplanung sowie Verkehrstechnik in einem gemeinsamen einheitlichen Datenhaltungssystem abzubilden. Um die Qualität der einzelnen GIP-Anwendungsbereiche sicherstellen zu können, müssen Datenqualitätsprüfungen durchgeführt werden.
Die Thesis umfasst die Analyse bestehender und erforderlicher Qualitätsprüfungen an den GIP-Datenmodellobjektarten und GIP-Datenmodellebenenverknüpfungen sowie Modellierungssituationen der GIP. Darüber hinaus werden von entwickelten Prüfroutinen die jeweiligen Qualitätsprüfungsergebnisse auf ihre Zielwirksamkeit analysiert. Ziel der Thesis ist, durch die Entwicklung eines Konzepts zur Qualitätssicherung, die Datenqualität der GIP-Anwendungsbereiche nachhaltig zu sichern und eine Qualitätsverbesserung durch die Erweiterung notwendiger Qualitätsprüfungen zu schaffen.
Land-use change modeling in the Brazilian Amazon - Exploring the impact of environmental factors
Institut für Geoinformation und Kartographie, Forschungsgruppe Geoinformation, Technische Universität Wien, 2010
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Andreas Frank
Kurzfassung/Abstract
Der Amazonas-Regenwald ist der größte tropische Regenwald der Welt mit einer Größe von circa 5.5 Millionen km². In den letzten Jahrzehnten wurde der Amazonas-Regenwald massivem Druck durch den Menschen ausgesetzt.
Um den menschlichen Einfluss auf tropische Wälder zu kontrollieren und wichtige Ökosystemdienstleistungen zu erhalten, besteht die Notwendigkeit anthropogene Entwicklungen in tropischen Regionen zu verstehen. Land-Use and Land-Cover Change (LUCC) Modelle wurden für diesen Zweck entwickelt. Statistische Modelle, welche als Grundlage für LUCC-Modelle dienen können, spiegeln Verbindungen zwischen unterschiedlichen landnutzungsbestimmenden Faktoren und Landnutzungsklassen wider. Weiters ist das Zusammenspiel zwischen Landnutzungsveränderungen und lokalem und globalem Klima von großer Bedeutung.
Mit dieser Arbeit soll ein Schritt in Richtung Kopplung von Klima- und LUCC-Modellen gemacht werden, um die Repräsentation der komplexen bi-direktionalen Interaktionen zwischen diesen Wissensgebieten zu verbessern. Für diesen Zweck wurden ein Potentielles Vegetations Modell (CPTEC-PVM) und das dazugehörige Wasserhaushaltsmodell in derselben Modellierungsumgebung (TerraME) wie ein auf verschiedenen Maßstäben basierendes, räumlich-explizites, dynamisches LUCC-Modell (AmazonClueINPE) implementiert. Der Einfluss von hydrologischen und weiteren umweltbedingten Faktoren auf die, durch den Menschen beeinflusste, räumliche Entwicklung des brasilianischen Amazonasgebiets wurde untersucht um statistische Modelle zu erstellen. Diese Modelle -sollten dazu dienen die räumlichen Abholzung- und Landnutzungsstrukturen zu rekonstruieren.
Die wissenschaftliche Frage dieser Diplomarbeit ist daher zu verstehen wie hydrologische Faktoren von einem Wasserhaushaltsmodell in Verbindung mit weiteren umweltbedingten Variablen, wie Hangneigung und Geländehöhe, helfen können um Landnutzungsveränderungen im Amazonasgebiet zu prognostizieren und den Aufbau von gekoppelten Klima-LUCC Modellen in der Zukunft zu erleichtern.
Die Resultate der statistischen Analyse zeigten die Aussagekraft einiger hydrologischer und umweltbedingter Faktoren um temporäre Landwirtschaft und Weideland im Untersuchungsmaßstab zu unterscheiden. Jedoch konnte auf Basis der Ergebnisse der dynamischen Modellierung keine Verbesserung ausschließlich aufgrund dieser Faktoren festgestellt werden. Die Resultate waren, bedingt durch den größeren Einfluss anderer bestimmender Faktoren, ähnlich. Diese betrafen hauptsächlich die Konnektivität und Erreichbarkeit.
Dennoch wird erwartet, dass die Integration von hydrologischen und bio-physikalischen Faktoren eine sinnvolle Ergänzung im angewandten Modellierungsverfahren ist, um Landnutzungsveränderungen zu untersuchen.
Weiters liefert die Implementierung des Potentiellen Vegetation Modells und des dazugehörigen Wasserhaushaltsmodells in der TerraME Modellierungsumgebung neue Möglichkeiten um die Interaktion zwischen Klima-, Vegetations- und LUCC-Modellen zu erforschen.
Der Amazonas-Regenwald ist der größte tropische Regenwald der Welt mit einer Größe von circa 5.5 Millionen km². In den letzten Jahrzehnten wurde der Amazonas-Regenwald massivem Druck durch den Menschen ausgesetzt.
Um den menschlichen Einfluss auf tropische Wälder zu kontrollieren und wichtige Ökosystemdienstleistungen zu erhalten, besteht die Notwendigkeit anthropogene Entwicklungen in tropischen Regionen zu verstehen. Land-Use and Land-Cover Change (LUCC) Modelle wurden für diesen Zweck entwickelt. Statistische Modelle, welche als Grundlage für LUCC-Modelle dienen können, spiegeln Verbindungen zwischen unterschiedlichen landnutzungsbestimmenden Faktoren und Landnutzungsklassen wider. Weiters ist das Zusammenspiel zwischen Landnutzungsveränderungen und lokalem und globalem Klima von großer Bedeutung.
Mit dieser Arbeit soll ein Schritt in Richtung Kopplung von Klima- und LUCC-Modellen gemacht werden, um die Repräsentation der komplexen bi-direktionalen Interaktionen zwischen diesen Wissensgebieten zu verbessern. Für diesen Zweck wurden ein Potentielles Vegetations Modell (CPTEC-PVM) und das dazugehörige Wasserhaushaltsmodell in derselben Modellierungsumgebung (TerraME) wie ein auf verschiedenen Maßstäben basierendes, räumlich-explizites, dynamisches LUCC-Modell (AmazonClueINPE) implementiert. Der Einfluss von hydrologischen und weiteren umweltbedingten Faktoren auf die, durch den Menschen beeinflusste, räumliche Entwicklung des brasilianischen Amazonasgebiets wurde untersucht um statistische Modelle zu erstellen. Diese Modelle -sollten dazu dienen die räumlichen Abholzung- und Landnutzungsstrukturen zu rekonstruieren.
Die wissenschaftliche Frage dieser Diplomarbeit ist daher zu verstehen wie hydrologische Faktoren von einem Wasserhaushaltsmodell in Verbindung mit weiteren umweltbedingten Variablen, wie Hangneigung und Geländehöhe, helfen können um Landnutzungsveränderungen im Amazonasgebiet zu prognostizieren und den Aufbau von gekoppelten Klima-LUCC Modellen in der Zukunft zu erleichtern.
Die Resultate der statistischen Analyse zeigten die Aussagekraft einiger hydrologischer und umweltbedingter Faktoren um temporäre Landwirtschaft und Weideland im Untersuchungsmaßstab zu unterscheiden. Jedoch konnte auf Basis der Ergebnisse der dynamischen Modellierung keine Verbesserung ausschließlich aufgrund dieser Faktoren festgestellt werden. Die Resultate waren, bedingt durch den größeren Einfluss anderer bestimmender Faktoren, ähnlich. Diese betrafen hauptsächlich die Konnektivität und Erreichbarkeit.
Dennoch wird erwartet, dass die Integration von hydrologischen und bio-physikalischen Faktoren eine sinnvolle Ergänzung im angewandten Modellierungsverfahren ist, um Landnutzungsveränderungen zu untersuchen.
Weiters liefert die Implementierung des Potentiellen Vegetation Modells und des dazugehörigen Wasserhaushaltsmodells in der TerraME Modellierungsumgebung neue Möglichkeiten um die Interaktion zwischen Klima-, Vegetations- und LUCC-Modellen zu erforschen.
Die Berechnung des momentanen Erdrotationsvektors aus VLBI- und Ringlaserdaten
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2008
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Mit den heute üblichen Methoden zur Messung der Erdrotation, vor allem die VLBI, wird für gewöhnlich ein Punkt als Pol bestimmt, der in Wirklichkeit kein echter Pol ist. Der so genannte CIP wird durch Definitionen festgelegt, die aus Gewohnheit und Tradition willkürlich gewählt worden sind und nicht auf theoretischen Überlegungen zu den tatsächlichen Bewegungen beruhen. Seit einigen Jahren haben die Ringlaser als inertiale Messverfahren eine Genauigkeit und Stabilität erreicht, mit denen aus ihren Messungen auf Schwankungen der Erdrotation geschlossen werden kann. Diese beziehen sich allerdings auf den Erdrotationsvektor, welcher die tatsächliche Drehachse des Erdkörpers repräsentiert. Will man die mit beiden Messverfahren erzielten Ergebnisse vergleichen, so müssen sie auf denselben Pol bezogen sein.
In der vorliegenden Diplomarbeit wird zuerst der Unterschied zwischen dem herkömmlich bestimmten Pol und dem Erdrotationsvektor dargelegt und die unterschiedlichen Schwankungen der Erdrotation in Form von Polbewegung und Änderung der Tageslänge aufgezählt und erklärt.
Nach der theoretischen Einleitung wird im Hauptteil eine Möglichkeit präsentiert, aus z. B. durch VLBI bestimmten Erdorientierungsparametern den Erdrotationsvektor zu berechnen und gegebenenfalls mit den Zeitreihen des Ringlasers vergleichen zu können. Dabei handelt es sich um ein MATLAB-Programm, das sowohl von der Funktionsweise als auch vom Formalismus her ausführlich beschrieben wird. Durch die Implementierung des Präzessions-/Nutationsmodells IAU 2000A, des Modells der ozeanischen Gezeiten von Eanes, jenes für die Polgezeiten, sowie der Berechnung der Oppolzerterme nach Brzezinski, kann das Programm sehr vielseitig eingesetzt werden.
Ein Auszug davon ist im dritten Teil der Arbeit zu finden. Es werden u. a. (1) berechnete Oppolzerterme mit den Werten aus dem Modell verglichen, (2) die frequenzabhängige Umrechnungsfunktion beim Übergang vom CIP auf den wahren Rotationspol überprüft, (3) hochauflösende VLBI Messdaten aus CONT02 und CONT05 ausgewertet, sowie (4) eine Zeitreihe des Ringlasers aus dem Jahr 2006 mit mittels dem Programm berechneten Werten für die Erdrotation verglichen.
Diese Diplomarbeit zeigt die Vorteile für eine Auswertung von subtäglichen Variationen der Erdrotation beim Übergang vom üblichen CIP auf den wahren Rotationspol und welche tragende Rolle der Ringlaser hier als alternatives Messmedium übernehmen kann.
Mit den heute üblichen Methoden zur Messung der Erdrotation, vor allem die VLBI, wird für gewöhnlich ein Punkt als Pol bestimmt, der in Wirklichkeit kein echter Pol ist. Der so genannte CIP wird durch Definitionen festgelegt, die aus Gewohnheit und Tradition willkürlich gewählt worden sind und nicht auf theoretischen Überlegungen zu den tatsächlichen Bewegungen beruhen. Seit einigen Jahren haben die Ringlaser als inertiale Messverfahren eine Genauigkeit und Stabilität erreicht, mit denen aus ihren Messungen auf Schwankungen der Erdrotation geschlossen werden kann. Diese beziehen sich allerdings auf den Erdrotationsvektor, welcher die tatsächliche Drehachse des Erdkörpers repräsentiert. Will man die mit beiden Messverfahren erzielten Ergebnisse vergleichen, so müssen sie auf denselben Pol bezogen sein.
In der vorliegenden Diplomarbeit wird zuerst der Unterschied zwischen dem herkömmlich bestimmten Pol und dem Erdrotationsvektor dargelegt und die unterschiedlichen Schwankungen der Erdrotation in Form von Polbewegung und Änderung der Tageslänge aufgezählt und erklärt.
Nach der theoretischen Einleitung wird im Hauptteil eine Möglichkeit präsentiert, aus z. B. durch VLBI bestimmten Erdorientierungsparametern den Erdrotationsvektor zu berechnen und gegebenenfalls mit den Zeitreihen des Ringlasers vergleichen zu können. Dabei handelt es sich um ein MATLAB-Programm, das sowohl von der Funktionsweise als auch vom Formalismus her ausführlich beschrieben wird. Durch die Implementierung des Präzessions-/Nutationsmodells IAU 2000A, des Modells der ozeanischen Gezeiten von Eanes, jenes für die Polgezeiten, sowie der Berechnung der Oppolzerterme nach Brzezinski, kann das Programm sehr vielseitig eingesetzt werden.
Ein Auszug davon ist im dritten Teil der Arbeit zu finden. Es werden u. a. (1) berechnete Oppolzerterme mit den Werten aus dem Modell verglichen, (2) die frequenzabhängige Umrechnungsfunktion beim Übergang vom CIP auf den wahren Rotationspol überprüft, (3) hochauflösende VLBI Messdaten aus CONT02 und CONT05 ausgewertet, sowie (4) eine Zeitreihe des Ringlasers aus dem Jahr 2006 mit mittels dem Programm berechneten Werten für die Erdrotation verglichen.
Diese Diplomarbeit zeigt die Vorteile für eine Auswertung von subtäglichen Variationen der Erdrotation beim Übergang vom üblichen CIP auf den wahren Rotationspol und welche tragende Rolle der Ringlaser hier als alternatives Messmedium übernehmen kann.
Positionierung mit RFID unter besonderer Berücksichtigung kinematischer Methoden
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2010
Betreuer: Ao.Univ.Prof. Privatdoz. Dipl.-Ing. Dr. Günther Retscher
Betreuer: Ao.Univ.Prof. Privatdoz. Dipl.-Ing. Dr. Günther Retscher
Kurzfassung/Abstract
Diese Arbeit gibt einen Überblick über die aktuellen Methoden zur Positionierung mittels RFID und durch praktische Beispiele wird der Einsatz der Methoden und Techniken vermittelt. RFID steht für "Radio Frequency Identification" und bedeutet "Identifizierung (z.B. der Position) mit Hilfe von elektromagnetischen Wellen". RFID- Sensoren zeichnen sich durch ihre vielseitige Verwendbarkeit aus und dem Leser soll ein gewisser Einblick in die Welt der Positionierung gegeben werden. In diesem Zusammenhang soll auch gezeigt werden, dass in Zeiten des GPS (Global Positioning System), vor allem für die Positionierung im Innenraum noch andere Möglichkeiten existieren, die teilweise sogar billiger und effizienter sein können.
Die RFID- Sensoren bestehen aus zwei Elementen, nämlich dem Reader und dem Tag. Der Reader ist dabei die Empfangseinheit, die sich beim jeweiligen Benutzer befindet, wo hingegen die Tags an bestimmten Positionen in der Umgebung befestigt sind und durch ihr Signal dem Benutzer ermöglichen, seine Position, zum Beispiel auf einer Karte, wieder zu finden. RFID- Sensoren werden aber nicht nur zur Navigation (z.B. von Fußgängern) verwendet, sondern werden auch zur Produktverfolgung in großen Lagerräumen oder ähnlichem eingesetzt.
Generell ist die Logistik das Haupteinsatzgebiet. Logistische Problemstellungen gehen quer durch alle Branchen. Manche Institutionen erhoffen sich darüber hinaus eine verbesserte Überwachung im Personen- und Warenverkehr. Der technische Aufwand und die Kosten sind überschaubar. Die zu erwartenden riesigen Datenmengen begrenzen aber die praktische Ausführung.
Nach einer kurzen Beschreibung der Grundlagen der RFID- Technologie, werden in der Arbeit die verschiedenen Positionierungsmethoden erklärt.
Es handelt sich hierbei um die zellbasierte Positionierung (Cell- of- Origin, kurz CoO); das "Time of Arrival"- Verfahren (ToA), bei welchem die Position des Benutzers aus Distanzmessungen zu bekannten Punkten über Trilateration berechnet wird; sowie das "Angle of Arrival"- Verfahren (AoA), bei welchem mittels Triangulation über die gemessenen Einfallswinkel zu bekannten Punkten die Nutzerposition bestimmt wird.
Weiters wird die RFID- Fingerprinting- Methode genauer behandelt, bei welcher aus Signalstärkenmessungen für jeden Bereich einen typischen Fingerabdruck erstellt wird, der dann mit einer Online-Datenbank verglichen wird und somit auf die Position des Benutzers schließen lässt. Bei der RFID- Fingerprinting- Methode kommen vier verschiedene Ansätze zum Einsatz. Diese wären:
Im folgenden wird auf die Methoden, die in den Feldversuchen verwendet werden, näher eingegangen. Dies wären das CoO- Verfahren und die HBA- Methode. Testmessungen wurden in einem Bürogebäude der TU Wien durchgeführt. Da RFID Tags aus wirtschaftlichen Gründen nicht mit einer so hohen Dichte angebracht werden können, dass einen lückenlose Positionierung gewährleistet ist, wurde zusätzlich ein low-cost Inertial Navigation System (INS) eingesetzt. Die kombinierte Positionsbestimmung erfolgte dann auch mit einem Kalman-Filter. Durch die Tests konnte gezeigt werden, welches Positionierungssystem sich im Innenbereich am besten eignet. Abschließend werden dann einige gängige Anwendungsbeispiele präsentiert, die auf die vorher erwähnten Positionierungsmethoden zurückgreifen. Es soll vor allem auch gezeigt werden, wie sich die RFID- Technik bereits in unser Leben eingegliedert hat und auch, dass eine ständige Weiterentwicklung dieser Technologie noch viele weitere Anwendungsmöglichkeiten mit sich bringen wird. Dies ist vor allem daran bemerkbar, dass die Bauteile immer kleiner werden und sich so leichter in andere Objekte integrieren lassen. Dies gilt sowohl für RFID- als auch für low-cost INS- Sensoren. Im besonderen Maße gewinnen INS- Sensoren immer mehr an Bedeutung, da auch sie Empfangslücken zwischen den RFID- Tags überbrücken können und immer bessere und genauere Daten liefern.
Diese Arbeit gibt einen Überblick über die aktuellen Methoden zur Positionierung mittels RFID und durch praktische Beispiele wird der Einsatz der Methoden und Techniken vermittelt. RFID steht für "Radio Frequency Identification" und bedeutet "Identifizierung (z.B. der Position) mit Hilfe von elektromagnetischen Wellen". RFID- Sensoren zeichnen sich durch ihre vielseitige Verwendbarkeit aus und dem Leser soll ein gewisser Einblick in die Welt der Positionierung gegeben werden. In diesem Zusammenhang soll auch gezeigt werden, dass in Zeiten des GPS (Global Positioning System), vor allem für die Positionierung im Innenraum noch andere Möglichkeiten existieren, die teilweise sogar billiger und effizienter sein können.
Die RFID- Sensoren bestehen aus zwei Elementen, nämlich dem Reader und dem Tag. Der Reader ist dabei die Empfangseinheit, die sich beim jeweiligen Benutzer befindet, wo hingegen die Tags an bestimmten Positionen in der Umgebung befestigt sind und durch ihr Signal dem Benutzer ermöglichen, seine Position, zum Beispiel auf einer Karte, wieder zu finden. RFID- Sensoren werden aber nicht nur zur Navigation (z.B. von Fußgängern) verwendet, sondern werden auch zur Produktverfolgung in großen Lagerräumen oder ähnlichem eingesetzt.
Generell ist die Logistik das Haupteinsatzgebiet. Logistische Problemstellungen gehen quer durch alle Branchen. Manche Institutionen erhoffen sich darüber hinaus eine verbesserte Überwachung im Personen- und Warenverkehr. Der technische Aufwand und die Kosten sind überschaubar. Die zu erwartenden riesigen Datenmengen begrenzen aber die praktische Ausführung.
Nach einer kurzen Beschreibung der Grundlagen der RFID- Technologie, werden in der Arbeit die verschiedenen Positionierungsmethoden erklärt.
Es handelt sich hierbei um die zellbasierte Positionierung (Cell- of- Origin, kurz CoO); das "Time of Arrival"- Verfahren (ToA), bei welchem die Position des Benutzers aus Distanzmessungen zu bekannten Punkten über Trilateration berechnet wird; sowie das "Angle of Arrival"- Verfahren (AoA), bei welchem mittels Triangulation über die gemessenen Einfallswinkel zu bekannten Punkten die Nutzerposition bestimmt wird.
Weiters wird die RFID- Fingerprinting- Methode genauer behandelt, bei welcher aus Signalstärkenmessungen für jeden Bereich einen typischen Fingerabdruck erstellt wird, der dann mit einer Online-Datenbank verglichen wird und somit auf die Position des Benutzers schließen lässt. Bei der RFID- Fingerprinting- Methode kommen vier verschiedene Ansätze zum Einsatz. Diese wären:
- der "Direction- Based- Approach" (kurz DBA), welcher verwendet werden kann, um die Position des Benutzers mit Messungen in vier Richtungen zu einem Tag zu schätzen;
- der "Tag- Based- Approach" (kurz TBA), welcher verwendet werden kann, um die Position des Benutzers mittels Messungen zu mehreren Tags vorweg zu schätzen;
- der "Direction- Tag- Based- Approach" (kurz DTBA), welcher verwendet werden kann, um die Position des Benutzers mittels Messungen in vier Richtungen zu vier Tags zu schätzen; sowie
- der "Heading- Based- Approach" (kurz HBA), welcher verwendet werden kann, um die Position und Orientierung des Benutzers in einer Richtung zu mehreren Tags zu schätzen.
Im folgenden wird auf die Methoden, die in den Feldversuchen verwendet werden, näher eingegangen. Dies wären das CoO- Verfahren und die HBA- Methode. Testmessungen wurden in einem Bürogebäude der TU Wien durchgeführt. Da RFID Tags aus wirtschaftlichen Gründen nicht mit einer so hohen Dichte angebracht werden können, dass einen lückenlose Positionierung gewährleistet ist, wurde zusätzlich ein low-cost Inertial Navigation System (INS) eingesetzt. Die kombinierte Positionsbestimmung erfolgte dann auch mit einem Kalman-Filter. Durch die Tests konnte gezeigt werden, welches Positionierungssystem sich im Innenbereich am besten eignet. Abschließend werden dann einige gängige Anwendungsbeispiele präsentiert, die auf die vorher erwähnten Positionierungsmethoden zurückgreifen. Es soll vor allem auch gezeigt werden, wie sich die RFID- Technik bereits in unser Leben eingegliedert hat und auch, dass eine ständige Weiterentwicklung dieser Technologie noch viele weitere Anwendungsmöglichkeiten mit sich bringen wird. Dies ist vor allem daran bemerkbar, dass die Bauteile immer kleiner werden und sich so leichter in andere Objekte integrieren lassen. Dies gilt sowohl für RFID- als auch für low-cost INS- Sensoren. Im besonderen Maße gewinnen INS- Sensoren immer mehr an Bedeutung, da auch sie Empfangslücken zwischen den RFID- Tags überbrücken können und immer bessere und genauere Daten liefern.
Entwicklung eines Monitoringsystems für Deformationsmessungen unter MATLAB
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2009
Betreuer: Prof. Dipl.-Ing. Dr.-Ing. Andreas Eichhorn
Betreuer: Prof. Dipl.-Ing. Dr.-Ing. Andreas Eichhorn
Kurzfassung/Abstract
Geodätisches Monitoring wird betrieben um Deformationen an natürlichen und/oder künstlichen Objekten (Bauwerke, Hängen, ...) und deren Umgebung zu untersuchen.
Deformationen können vielfältige Ursachen haben und sind, solange sie eine bestimmte Größenordnung nicht überschreiten, auch unbedenklich. Wird jedoch ein Schwellwert erreicht, sind die involvierten Fachleute zu alarmieren um weitere Maßnahmen zu setzen.
Die Festlegung der Schwellwerte kann dabei nur in Kooperation mit Experten anderer Fachgebiete erfolgen, und auch die Einleitung geeigneter Maßnahmen obliegt meist nicht einem Geodäten.
Für geodätische Monitoringaufgaben existieren bereits einige proprietäre Softwarelösungen.
Diese Programme steuern die Sensoren und verspeichern die gewonnenen Daten. Die meisten Anbieter liefern dazu (einfache) Auswerte- und Darstellungsfunktionen.
Zur Datenauswertung und -analyse ist man weitgehend auf den im jeweiligen Softwarepaket angeboten Funktionsumfang beschränkt.
Doch gerade in der wissenschaftlichen Datenauswertung und -analyse ist man daran interessiert, auf die akquirierten Daten möglichst flexibel zugreifen zu können, um diese dann mit speziellen Analysealgorithmen weiter verarbeiten zu können.
Im Zuge dieser Diplomarbeit ist ein Programmpaket entstanden, das die gemessenen Daten eines Robottachymeters (z.B. der Leica Serie TPS1200) und die Verspeicherung derselben in eine Microsoft SQL Server 2005 Datenbank gewährleistet. Die Entwicklung dieses Programmes erfolgte in MATLAB. Die Verwendung von MATLAB erlaubt den Zugriff auf die umfangreichen und effizienten mathematischen Funktionen dieser Entwicklungsumgebung.
Dieses Programm, im Weiteren als 'MatlabMonitor' bezeichnet, bildet eine Grundlage für weitere Diplom- beziehungsweise Bachelor- oder Masterarbeiten. Spezielle Auswerte- und Analysealgorithmen für Deformationsmessungen sollen zukünftig getestet und im Programm MatlabMonitor implementiert werden können.
Geodätisches Monitoring wird betrieben um Deformationen an natürlichen und/oder künstlichen Objekten (Bauwerke, Hängen, ...) und deren Umgebung zu untersuchen.
Deformationen können vielfältige Ursachen haben und sind, solange sie eine bestimmte Größenordnung nicht überschreiten, auch unbedenklich. Wird jedoch ein Schwellwert erreicht, sind die involvierten Fachleute zu alarmieren um weitere Maßnahmen zu setzen.
Die Festlegung der Schwellwerte kann dabei nur in Kooperation mit Experten anderer Fachgebiete erfolgen, und auch die Einleitung geeigneter Maßnahmen obliegt meist nicht einem Geodäten.
Für geodätische Monitoringaufgaben existieren bereits einige proprietäre Softwarelösungen.
Diese Programme steuern die Sensoren und verspeichern die gewonnenen Daten. Die meisten Anbieter liefern dazu (einfache) Auswerte- und Darstellungsfunktionen.
Zur Datenauswertung und -analyse ist man weitgehend auf den im jeweiligen Softwarepaket angeboten Funktionsumfang beschränkt.
Doch gerade in der wissenschaftlichen Datenauswertung und -analyse ist man daran interessiert, auf die akquirierten Daten möglichst flexibel zugreifen zu können, um diese dann mit speziellen Analysealgorithmen weiter verarbeiten zu können.
Im Zuge dieser Diplomarbeit ist ein Programmpaket entstanden, das die gemessenen Daten eines Robottachymeters (z.B. der Leica Serie TPS1200) und die Verspeicherung derselben in eine Microsoft SQL Server 2005 Datenbank gewährleistet. Die Entwicklung dieses Programmes erfolgte in MATLAB. Die Verwendung von MATLAB erlaubt den Zugriff auf die umfangreichen und effizienten mathematischen Funktionen dieser Entwicklungsumgebung.
Dieses Programm, im Weiteren als 'MatlabMonitor' bezeichnet, bildet eine Grundlage für weitere Diplom- beziehungsweise Bachelor- oder Masterarbeiten. Spezielle Auswerte- und Analysealgorithmen für Deformationsmessungen sollen zukünftig getestet und im Programm MatlabMonitor implementiert werden können.
Modellierung atmosphärischer Einflüsse auf die Erdrotation in verschiedenen Zeitskalen
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2009
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
Variationen des atmosphärischen Drehimpulses werden durch großräumige Massenverlagerungen und Veränderungen des Windfelds der Atmosphäre hervorgerufen. Durch Interaktion mit der darunter liegenden Kruste und dem Mantel beeinflussen derartige atmosphärische Vorgänge das Rotationsverhalten der Erde - sie sind so für einen Teil der beobachteten Polbewegung und Tageslängenschwankung (LOD) verantwortlich. In der vorliegenden Diplomarbeit wird der Einfluss der Atmosphäre auf die Erdrotation anhand der sogenannten Drehimpulsfunktionen modelliert. Die Drehimpulsfunktionen werden dabei auf Basis der meteorologischen Daten des ECMWF (European Centre for Medium-Range Weather Forecasts) durch Integration über die Dichte und das Geschwindigkeitsfeld der Atmosphäre berechnet. Die Zeitreihen der geodätisch beobachteten Polbewegung und Tageslängenschwankung entstammen dem C04-Datensatz des IERS (International Earth Rotation and Reference Systems Service) bzw. den GPS- und VLBI-Beobachtungen für die Dauer des Beobachtungsprogrammes CONT08. Je nachdem in welchem Periodenbereich der Einfluss der Atmosphäre in der Erdrotation untersucht wird, sind unterschiedliche Modellierungsansätze zu gebrauchen. Für Effekte mit Perioden von wenigen Tagen bis hin zu mehreren Wochen oder länger ist die Übereinstimmung zwischen geodätischen und atmosphärischen Daten sehr gut, und der Vergleich im Zeitbereich auf Ebene der Drehimpulsfunktionen (Differentiationsansatz) oder auf Ebene der Polbewegung (Integrationsansatz) empfehlenswert. Im täglichen bzw. subtäglichen Bereich müssen in den Gleichungen neben dem Chandler Wobble (CW) auch die Effekte der Free Core Nutation (FCN) miteinbezogen werden. Die Kohärenz zwischen Drehimpulsfunktionen und geodätischen Zeitreihen sinkt für hochfrequente Signale jedoch drastisch, sodass sich der Verfasser auf die Abschätzung der Amplituden in den Spektren der atmosphärisch angeregten Erdrotationsparameter (Polbewegung und LOD) beschränkt.
Die verwendeten Drehimpulsfunktionen sind nach verschiedenen Varianten berechnet und besitzen je nach zu behandelnder Zeitskala auch unterschiedliche Auflösung (1 d, 6 h oder 1 h). Zusätzlich stehen die Drehimpulsfunktionen des NCEP (National Centers for Environmental Prediction) zur Verfügung. Im Vergleich mit Erdrotationsparametern ergeben sich beim Differentiationsansatz Korrelationskoeffizienten bis zu 0.80 in der äquatorialen Komponente bzw. 0.99 in LOD. Im Fall des Integrationsansatzes beträgt die Standardabweichung zwischen Polbewegung aus C04 und Polbewegung aus Atmosphärendaten bestenfalls 6.3 mas. Die täglichen und subtäglichen atmosphärischen Effekte besitzen grundsätzlich Amplituden, die kleiner als 10 μas (Polbewegung) bzw. 10 μs (LOD) sind.
Variationen des atmosphärischen Drehimpulses werden durch großräumige Massenverlagerungen und Veränderungen des Windfelds der Atmosphäre hervorgerufen. Durch Interaktion mit der darunter liegenden Kruste und dem Mantel beeinflussen derartige atmosphärische Vorgänge das Rotationsverhalten der Erde - sie sind so für einen Teil der beobachteten Polbewegung und Tageslängenschwankung (LOD) verantwortlich. In der vorliegenden Diplomarbeit wird der Einfluss der Atmosphäre auf die Erdrotation anhand der sogenannten Drehimpulsfunktionen modelliert. Die Drehimpulsfunktionen werden dabei auf Basis der meteorologischen Daten des ECMWF (European Centre for Medium-Range Weather Forecasts) durch Integration über die Dichte und das Geschwindigkeitsfeld der Atmosphäre berechnet. Die Zeitreihen der geodätisch beobachteten Polbewegung und Tageslängenschwankung entstammen dem C04-Datensatz des IERS (International Earth Rotation and Reference Systems Service) bzw. den GPS- und VLBI-Beobachtungen für die Dauer des Beobachtungsprogrammes CONT08. Je nachdem in welchem Periodenbereich der Einfluss der Atmosphäre in der Erdrotation untersucht wird, sind unterschiedliche Modellierungsansätze zu gebrauchen. Für Effekte mit Perioden von wenigen Tagen bis hin zu mehreren Wochen oder länger ist die Übereinstimmung zwischen geodätischen und atmosphärischen Daten sehr gut, und der Vergleich im Zeitbereich auf Ebene der Drehimpulsfunktionen (Differentiationsansatz) oder auf Ebene der Polbewegung (Integrationsansatz) empfehlenswert. Im täglichen bzw. subtäglichen Bereich müssen in den Gleichungen neben dem Chandler Wobble (CW) auch die Effekte der Free Core Nutation (FCN) miteinbezogen werden. Die Kohärenz zwischen Drehimpulsfunktionen und geodätischen Zeitreihen sinkt für hochfrequente Signale jedoch drastisch, sodass sich der Verfasser auf die Abschätzung der Amplituden in den Spektren der atmosphärisch angeregten Erdrotationsparameter (Polbewegung und LOD) beschränkt.
Die verwendeten Drehimpulsfunktionen sind nach verschiedenen Varianten berechnet und besitzen je nach zu behandelnder Zeitskala auch unterschiedliche Auflösung (1 d, 6 h oder 1 h). Zusätzlich stehen die Drehimpulsfunktionen des NCEP (National Centers for Environmental Prediction) zur Verfügung. Im Vergleich mit Erdrotationsparametern ergeben sich beim Differentiationsansatz Korrelationskoeffizienten bis zu 0.80 in der äquatorialen Komponente bzw. 0.99 in LOD. Im Fall des Integrationsansatzes beträgt die Standardabweichung zwischen Polbewegung aus C04 und Polbewegung aus Atmosphärendaten bestenfalls 6.3 mas. Die täglichen und subtäglichen atmosphärischen Effekte besitzen grundsätzlich Amplituden, die kleiner als 10 μas (Polbewegung) bzw. 10 μs (LOD) sind.
Einfluss der Orografie auf die Ausprägung der Stabil-Isotopenverhältnisse in Oberflächenwässern
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2010
Betreuer: Dipl.-Ing. Brigitte Rudel
Betreuer: Dipl.-Ing. Brigitte Rudel
Kurzfassung/Abstract
Stabile Sauerstoff- und Wasserstoffisotope sind in den verschiedensten Bereichen von großer Bedeutung. Sie spielen eine Rolle bei hydrologischen Untersuchungen wie beispielsweise bei der Bestimmung und Abgrenzung eines Einzugsgebietes oder der Untersuchung der Grundwassererneuerung. Der Deuterium Exzess von Wässern ist eine wichtige Größe, welcher durch den nahezu linearen Zusammenhang von Deuterium und Sauerstoff 18 berechnet werden kann. Der Deuterium Exzess wird herangezogen, um den Ursprung des Niederschlagwassers zu bestimmen. Untersuchungen des Deuterium Exzesses im Niederschlag zeigen jedoch große lokale Unterschiede. Mit Hilfe eines Geoinformationssystems wird in dieser Arbeit der Einfluss der Oberflächenhöhe und Oberflächenstruktur auf den Deuterium Exzess von Oberflächenwässern untersucht. Die untersuchten Isotopenwerte stammen aus den Oberflächenwassermessstellen des Austrian Institute of Technology (AIT) und umfassen das Einzugsgebiet der oberösterreichischen Traun. Durch Visualisierungen, Streudiagramme und Korrelationen kann ein starker Zusammenhang zwischen mittlerer Höhe des Einzugsgebietes und dem Deuterium Exzess des Abflusses bei der Messstelle festgestellt werden.
Stabile Sauerstoff- und Wasserstoffisotope sind in den verschiedensten Bereichen von großer Bedeutung. Sie spielen eine Rolle bei hydrologischen Untersuchungen wie beispielsweise bei der Bestimmung und Abgrenzung eines Einzugsgebietes oder der Untersuchung der Grundwassererneuerung. Der Deuterium Exzess von Wässern ist eine wichtige Größe, welcher durch den nahezu linearen Zusammenhang von Deuterium und Sauerstoff 18 berechnet werden kann. Der Deuterium Exzess wird herangezogen, um den Ursprung des Niederschlagwassers zu bestimmen. Untersuchungen des Deuterium Exzesses im Niederschlag zeigen jedoch große lokale Unterschiede. Mit Hilfe eines Geoinformationssystems wird in dieser Arbeit der Einfluss der Oberflächenhöhe und Oberflächenstruktur auf den Deuterium Exzess von Oberflächenwässern untersucht. Die untersuchten Isotopenwerte stammen aus den Oberflächenwassermessstellen des Austrian Institute of Technology (AIT) und umfassen das Einzugsgebiet der oberösterreichischen Traun. Durch Visualisierungen, Streudiagramme und Korrelationen kann ein starker Zusammenhang zwischen mittlerer Höhe des Einzugsgebietes und dem Deuterium Exzess des Abflusses bei der Messstelle festgestellt werden.
Modelling the Distribution and Connectivity of Black Grouse (Tetraotetrix L.) in the Alps
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2010
Betreuer: Dipl.-Ing. Roland Grillmayer
Betreuer: Dipl.-Ing. Roland Grillmayer
Kurzfassung/Abstract
Die Vernetzung von Lebensräume ist eine der zentralen Fragen des modernen Naturschutzes. Für eine adäquate Planung werden flächendeckende der zu schützenden Art benötigt. Diese Arbeit beschäftigt sich mit einer statistischen Methode zur Interpolation der Verbreitung des Birkhuhnes. Desweiteren wird eine räumliche Priorisierung, unter dem Gesichtspunkt der Konnektivität, für einzelne Habitatfragmente vorgenommen und verschiedene Methoden miteinander verglichen.
Die Vernetzung von Lebensräume ist eine der zentralen Fragen des modernen Naturschutzes. Für eine adäquate Planung werden flächendeckende der zu schützenden Art benötigt. Diese Arbeit beschäftigt sich mit einer statistischen Methode zur Interpolation der Verbreitung des Birkhuhnes. Desweiteren wird eine räumliche Priorisierung, unter dem Gesichtspunkt der Konnektivität, für einzelne Habitatfragmente vorgenommen und verschiedene Methoden miteinander verglichen.
Ein Dichtemodell der oberen Kruste im Untersuchungsgebiet ALP 2002
Institut für Geodäsie und Geophysik, Forschungsgruppe Geophysik, Technische Universität Wien, 2009
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Ewald Brückl
Kurzfassung/Abstract
Erstellung eines dreidimensionalen Dichtemodells der Oberkruste, sowie die Berechungen seiner Schwerewirkung und der gestrippten Bouguer Anomalie im Untersuchungsgebiet der seismischen Großprojekte CELEBRATION 2000 und ALP 2002.
Erstellung eines dreidimensionalen Dichtemodells der Oberkruste, sowie die Berechungen seiner Schwerewirkung und der gestrippten Bouguer Anomalie im Untersuchungsgebiet der seismischen Großprojekte CELEBRATION 2000 und ALP 2002.
Determination of Love and Shida numbers from VLBI
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2008
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Betreuer: Univ.Prof. Dipl.-Ing. Dr. Harald Schuh
Kurzfassung/Abstract
The Moon and Sun exert a gravitational force on the Earth. This influence in a certain point in the Earth or on the Earth's surface is a function of the distance between this point and the perturbing celestial bodies. The tidal attraction of the Moon or Sun in a certain point in the Earth is defined as the difference between the gravitational attraction in the point itself and the gravitational attraction in the geocentre. The tidal forces cause periodic deformations of the Earth's surface, and the Earth's response to the acting forces depends on Love and Shida numbers, which describe the elasticity of the Earth.
Modern space geodetic techniques, such as VLBI (Very Long Baseline Interferometry), allow the validation of theoretically estimated global Love and Shida parameters from direct measurements. The modelling of tidal displacement of the Earth's surface, as it is recommended in the IERS Conventions is implemented in the VLBI analysis software package OCCAM. In this thesis, a thorough description of the components of the tidal displacement is provided.
The main goal of this master thesis is to determine Love and Shida numbers of second degree obtained from observations during the CONT05 campaign, i.e. a 15 days continuous VLBI operation carried out in September 2005. Before applying the procedure for the determination of the Love numbers to real data, a Matlab-based program with simulated observations has been tested. When Earth rotation is considered, the Love numbers in the diurnal band become frequency dependent with a resonance around the frequency of the Free Core Nutation. In this thesis, the Love number h2, the Shida number l2, and Love numbers for six tidal waves (K1 O1 P1 J1 Ψ1 Φ1) were estimated.
The Moon and Sun exert a gravitational force on the Earth. This influence in a certain point in the Earth or on the Earth's surface is a function of the distance between this point and the perturbing celestial bodies. The tidal attraction of the Moon or Sun in a certain point in the Earth is defined as the difference between the gravitational attraction in the point itself and the gravitational attraction in the geocentre. The tidal forces cause periodic deformations of the Earth's surface, and the Earth's response to the acting forces depends on Love and Shida numbers, which describe the elasticity of the Earth.
Modern space geodetic techniques, such as VLBI (Very Long Baseline Interferometry), allow the validation of theoretically estimated global Love and Shida parameters from direct measurements. The modelling of tidal displacement of the Earth's surface, as it is recommended in the IERS Conventions is implemented in the VLBI analysis software package OCCAM. In this thesis, a thorough description of the components of the tidal displacement is provided.
The main goal of this master thesis is to determine Love and Shida numbers of second degree obtained from observations during the CONT05 campaign, i.e. a 15 days continuous VLBI operation carried out in September 2005. Before applying the procedure for the determination of the Love numbers to real data, a Matlab-based program with simulated observations has been tested. When Earth rotation is considered, the Love numbers in the diurnal band become frequency dependent with a resonance around the frequency of the Free Core Nutation. In this thesis, the Love number h2, the Shida number l2, and Love numbers for six tidal waves (K1 O1 P1 J1 Ψ1 Φ1) were estimated.
Verwendung von Spiegeln zur vollständigen photogrammetrischen Oberflächenrekonstruktion von schwer zugänglichen Objekten
Institut für Photogrammetrie und Fernerkundung, Technische Universität Wien, 2009
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Jansa
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Josef Jansa
Kurzfassung/Abstract
Die vollständige photogrammetrische Oberflächenerfassung von schwer zugänglichen Objektteilen ist das Thema der vorliegenden Arbeit. Das Hauptaugenmerk liegt dabei bei der Vermessung mit Laserscannern, die nach dem Triangulations- bzw. dem polaren Verfahren arbeiten. Aufgrund von technischen Unzulänglichkeiten (z.B.: Wahrung der Mindestaufnahmedistanz, Ausmaße des Geräts etc.) kann der Bereich, der vom Scanner erfassbar ist, eingeschränkt sein.
Zur Veränderung des erfassbaren Objektbereichs wird in dieser Arbeit die Vermessung via Spiegel vorgestellt und untersucht. Die auf diese Weise erhaltenen Messergebnisse sind spiegelverkehrt und müssen zur Fusion mit den herkömmlich erfassten Daten "entspiegelt" werden.
Der in dieser Arbeit beschrittene Lösungsweg sieht eine rechnerische Entspiegelung an einer mathematischen Ebene vor. Dabei ist die Spieglung an einer beliebig im Raum gelagerten Ebene ausreichend. Die eigentlich notwendige anschließende Kongruenztransformation kann entfallen, da diese implizit bei einer etwaigen absoluten Orientierungen der Punktwolken oder bei der Fusion mehrerer Punktwolken (z.B.: mit Hilfe des ICP-Algorithmus) durchgeführt wird. Da die Form eines realen Spiegels von der einer mathematischen Ebene abweicht, erhaltenen die so "entspiegelten" eine zusätzliche Fehlerkomponente. In der vorliegenden Arbeit wird untersucht, wie groß diese Fehlerkomponente sein kann, wenn ein Vorderflächenspiegel von hoher Qualität bei der Datenerfassung eingesetzt wird.
Die theoretische Untersuchung hat gezeigt, dass die "Entspiegelung" der Daten mit der vorgestellten Methode bei Verwendung eines polaren Laserscanners aufgrund der geringeren Messgenauigkeit dieser Geräte ohne Schwierigkeiten eingesetzt werden kann, wohingegen sie für die Arbeit mit Triangulationslaserscannern nur unter Einhaltung gewisser Voraussetzungen (z.B.: Messung mit geringem Abstand zwischen Spiegel und Objekt) geeignet ist. Die praktischen Tests, die im Zuge dieser Arbeit angestellt wurden, haben gezeigt, dass die Messung via Spiegel ohne erheblichen Mehraufwand und problemlos durchgeführt werden konnten. Die Genauigkeit der dabei erzielten Ergebnisse übertraf teilweise die auf Berechnungen basierenden Erwartungen.
Die vollständige photogrammetrische Oberflächenerfassung von schwer zugänglichen Objektteilen ist das Thema der vorliegenden Arbeit. Das Hauptaugenmerk liegt dabei bei der Vermessung mit Laserscannern, die nach dem Triangulations- bzw. dem polaren Verfahren arbeiten. Aufgrund von technischen Unzulänglichkeiten (z.B.: Wahrung der Mindestaufnahmedistanz, Ausmaße des Geräts etc.) kann der Bereich, der vom Scanner erfassbar ist, eingeschränkt sein.
Zur Veränderung des erfassbaren Objektbereichs wird in dieser Arbeit die Vermessung via Spiegel vorgestellt und untersucht. Die auf diese Weise erhaltenen Messergebnisse sind spiegelverkehrt und müssen zur Fusion mit den herkömmlich erfassten Daten "entspiegelt" werden.
Der in dieser Arbeit beschrittene Lösungsweg sieht eine rechnerische Entspiegelung an einer mathematischen Ebene vor. Dabei ist die Spieglung an einer beliebig im Raum gelagerten Ebene ausreichend. Die eigentlich notwendige anschließende Kongruenztransformation kann entfallen, da diese implizit bei einer etwaigen absoluten Orientierungen der Punktwolken oder bei der Fusion mehrerer Punktwolken (z.B.: mit Hilfe des ICP-Algorithmus) durchgeführt wird. Da die Form eines realen Spiegels von der einer mathematischen Ebene abweicht, erhaltenen die so "entspiegelten" eine zusätzliche Fehlerkomponente. In der vorliegenden Arbeit wird untersucht, wie groß diese Fehlerkomponente sein kann, wenn ein Vorderflächenspiegel von hoher Qualität bei der Datenerfassung eingesetzt wird.
Die theoretische Untersuchung hat gezeigt, dass die "Entspiegelung" der Daten mit der vorgestellten Methode bei Verwendung eines polaren Laserscanners aufgrund der geringeren Messgenauigkeit dieser Geräte ohne Schwierigkeiten eingesetzt werden kann, wohingegen sie für die Arbeit mit Triangulationslaserscannern nur unter Einhaltung gewisser Voraussetzungen (z.B.: Messung mit geringem Abstand zwischen Spiegel und Objekt) geeignet ist. Die praktischen Tests, die im Zuge dieser Arbeit angestellt wurden, haben gezeigt, dass die Messung via Spiegel ohne erheblichen Mehraufwand und problemlos durchgeführt werden konnten. Die Genauigkeit der dabei erzielten Ergebnisse übertraf teilweise die auf Berechnungen basierenden Erwartungen.
Nutzung des GLONASS-Satellitennavigationssystems in der Vermessungspraxis - Vorteile und Grenzen
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2009
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Die Positionsbestimmung mit Satelliten gewinnt immer mehr Bedeutung in der praktischen Vermessung. Vor allem die in den letzten Jahren entstandenen Referenzstationsnetze zur Echtzeitpositionierung erhöhen die Anwendungsmöglichkeiten in der Vermessungspraxis. Die Nutzung der Satellitennavigationssysteme stellt eine Alternative zu den terrestrischen Messverfahren dar. Das bekannteste System ist das US-amerikanische Global Positioning System (GPS).
Das Globale Navigations-Satelliten-System (GLONASS) ist das russische Pendant zu GPS. GLONASS unterscheidet sich von GPS in Bereichen des Kontrollsegments, des Weltraumsegments und in der Signalstruktur. Die Systeme GPS und GLONASS können unter Berücksichtigung der Systemunterschiede kombiniert genutzt werden. Nach einer Phase der eingeschränkten Verfügbarkeit Ende der 90-er Jahre steht nun GLONASS wieder vor dem vollständigen Systemausbau. Aus diesem Grund werden seit wenigen Jahren vermehrt kombinierte GPS/GLONASS-Zweifrequenzempfänger von den Geräteherstellern geodätischer Satellitennavigationsempfänger entwickelt und angeboten. Bei einer gemeinsamen Nutzung erhöht sich zur Zeit die Anzahl der verfügbaren Satelliten von rund 30 GPS-Satelliten um 20 GLONASS-Satelliten auf bis zu 50 Satelliten. Dem klaren Vorteil einer höheren Zahl verfügbarer Satelliten steht aber das Problem der schwierigeren Verarbeitung hybrider Messdaten gegenüber.
Im Rahmen des praktischen Teils dieser Diplomarbeit wurden anhand von drei in der geodätischen Praxis typischen Messszenarien die Vorteile, aber auch die derzeitigen Grenzen einer gemeinsamen Nutzung der Satellitensysteme GPS und GLONASS näher untersucht. Es wird zuerst der Systemaufbau und der aktuelle Status der Satellitensysteme GPS und GLONASS beschrieben. Danach befasst sich die sich die Arbeit mit den unterschiedlichen Möglichkeiten der Positionsbestimmung mit Satelliten. In Kapitel 4 wird das Wienstrom Echtzeitpositionierungssystem WEP vorgestellt. Anschließend werden die Anwendungsmöglichkeiten von GNSS in einem ZT-Büro beschrieben. Schlussendlich werden drei ausgewählte Messszenarien, nämlich
Die Positionsbestimmung mit Satelliten gewinnt immer mehr Bedeutung in der praktischen Vermessung. Vor allem die in den letzten Jahren entstandenen Referenzstationsnetze zur Echtzeitpositionierung erhöhen die Anwendungsmöglichkeiten in der Vermessungspraxis. Die Nutzung der Satellitennavigationssysteme stellt eine Alternative zu den terrestrischen Messverfahren dar. Das bekannteste System ist das US-amerikanische Global Positioning System (GPS).
Das Globale Navigations-Satelliten-System (GLONASS) ist das russische Pendant zu GPS. GLONASS unterscheidet sich von GPS in Bereichen des Kontrollsegments, des Weltraumsegments und in der Signalstruktur. Die Systeme GPS und GLONASS können unter Berücksichtigung der Systemunterschiede kombiniert genutzt werden. Nach einer Phase der eingeschränkten Verfügbarkeit Ende der 90-er Jahre steht nun GLONASS wieder vor dem vollständigen Systemausbau. Aus diesem Grund werden seit wenigen Jahren vermehrt kombinierte GPS/GLONASS-Zweifrequenzempfänger von den Geräteherstellern geodätischer Satellitennavigationsempfänger entwickelt und angeboten. Bei einer gemeinsamen Nutzung erhöht sich zur Zeit die Anzahl der verfügbaren Satelliten von rund 30 GPS-Satelliten um 20 GLONASS-Satelliten auf bis zu 50 Satelliten. Dem klaren Vorteil einer höheren Zahl verfügbarer Satelliten steht aber das Problem der schwierigeren Verarbeitung hybrider Messdaten gegenüber.
Im Rahmen des praktischen Teils dieser Diplomarbeit wurden anhand von drei in der geodätischen Praxis typischen Messszenarien die Vorteile, aber auch die derzeitigen Grenzen einer gemeinsamen Nutzung der Satellitensysteme GPS und GLONASS näher untersucht. Es wird zuerst der Systemaufbau und der aktuelle Status der Satellitensysteme GPS und GLONASS beschrieben. Danach befasst sich die sich die Arbeit mit den unterschiedlichen Möglichkeiten der Positionsbestimmung mit Satelliten. In Kapitel 4 wird das Wienstrom Echtzeitpositionierungssystem WEP vorgestellt. Anschließend werden die Anwendungsmöglichkeiten von GNSS in einem ZT-Büro beschrieben. Schlussendlich werden drei ausgewählte Messszenarien, nämlich
- ein kleinräumiges statisch zu beobachtendes hochpräzises Überwachungsnetz,
- eine RTK Punktbestimmung unter Nutzung der Korrekturdaten des Echtzeitpositionierungssystems WEP im innerstädtischen Bereich und
- eine Punktbestimmung eines bewegten Fahrzeuges
Einsatz der von Referenzstationsbetreibern angebotenen Datenströme in der ingenieurgeodätischen Praxis
Institut für Geodäsie und Geophysik, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2010
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Im Zuge dieser Arbeit erfolgte die Planung und Durchführung von GPS-gestützten Punktbestimmungen unter Nutzung von GPS-Referenzstationsnetzen in vier verschiedenen Messszenarien. Die Bewertung des Nutzens von Referenzstationen war Ziel dieser Arbeit. Eines der untersuchten Verfahren behandelt die statische Langzeitmessung, die im vorliegenden Fall mit einer Messzeit von 18 Stunden erfolgt ist. Dabei wurden Vergleiche der statischen Langzeitmessung mit kurzzeitigen statischen Beobachtungen (z.B. 1 Stunde oder 10 Minuten) erstellt. Weiters wurden Zeitspannen mit variierender Satellitenkonstellation untersucht, um den Einfluss der Satellitengeometrie auf die Position zu bewerten. Sämtliche Vergleiche erfolgten in Bezug auf eine Nullmessung im Koordinatenrahmen ITRF2000. Eine Abwandlung der statischen Messung bildet das Verfahren mittels virtueller Referenzstation (kurz VRS). Dabei werden VRS-Daten vom Netzbetreiber, im vorliegenden Fall von der EVN Geoinfo GmbH, bereitgestellt und es entfällt die direkte Aufstellung auf den Festpunkten. Im Vergleich zur herkömmlichen statischen Messung treten Differenzen bis zu 6 cm in der Lage und 8 cm in der Höhe auf. Die zweite Messmethode ist die RTK-Messung mit eigener Referenzstation.
Es wurde ein Vergleich zur statischen Langzeitmessung gezogen. Das Verfahren lieferte leider keine aufschlussreichen Ergebnisse, da nur zwei Neupunkte ermittelt wurden und bei einem davon ein Messfehler aufgetreten ist. Die Werte des zweiten Neupunktes sind erwartungsgemäß etwas schlechter als die der statischen Langzeitmessung, etwa im Bereich der statischen Messung über drei Stunden (±1 cm). Ein weiteres Messszenario beruht ebenfalls auf der RTK-Messung, jedoch kommen die Referenzdaten erneut von der EVN als Referenznetzbetreiber.
Es erfolgte eine Auswertung und nicht nur ein Vergleich der in Echtzeit erhaltenen Koordinaten. Die Koordinatendifferenzen zur statischen Langzeitmessung liegen im Bereich von 3-6 cm in der Lage und bis zu 8 cm in der Höhe. Der direkte Vergleich zu dem zuvor beschriebenen Verfahren zeigt, dass sich bei der RTK-Messung mit eigener Referenz geringfügig bessere Ergebnisse erzielen lassen. Das vierte Verfahren ist eine Lage- und Höhenaufnahme. Dabei wurden 18 eindeutige Detailpunkte mehrfach eingemessen, wobei einerseits die Wiederholbarkeit der Messung an einem anderen Tag und andererseits das Verhalten bei häufigem Signalverlust von Interesse war. Für die meisten Punkte liegt die Wiederholbarkeit im Bereich von 3 cm in der Lage sowie 5 cm in der Höhe. Allerdings gibt es vier Punkte, deren mehrfachbestimmte Koordinaten sich um bis zu 8 cm unterscheiden. Zusammenfassend kann gesagt werden, dass sich mit der statische Langzeitmessung bei weitem die besten Ergebnisse erzielen lassen. Ein Nachteil ist jedoch die lange Messdauer sowie die Notwendigkeit mehrerer Geräte. Eine gute Alternative bieten die beiden RTK-Verfahren. Dabei ist der erheblich geringere Zeitaufwand im Verhältnis zur geringeren Genauigkeit der Ergebnisse zu betrachten. Es ist also bei jeder Anwendung, nach gewünschtem Ergebnis und Zeitaufwand, das jeweilige Messverfahren auszuwählen.
Im Zuge dieser Arbeit erfolgte die Planung und Durchführung von GPS-gestützten Punktbestimmungen unter Nutzung von GPS-Referenzstationsnetzen in vier verschiedenen Messszenarien. Die Bewertung des Nutzens von Referenzstationen war Ziel dieser Arbeit. Eines der untersuchten Verfahren behandelt die statische Langzeitmessung, die im vorliegenden Fall mit einer Messzeit von 18 Stunden erfolgt ist. Dabei wurden Vergleiche der statischen Langzeitmessung mit kurzzeitigen statischen Beobachtungen (z.B. 1 Stunde oder 10 Minuten) erstellt. Weiters wurden Zeitspannen mit variierender Satellitenkonstellation untersucht, um den Einfluss der Satellitengeometrie auf die Position zu bewerten. Sämtliche Vergleiche erfolgten in Bezug auf eine Nullmessung im Koordinatenrahmen ITRF2000. Eine Abwandlung der statischen Messung bildet das Verfahren mittels virtueller Referenzstation (kurz VRS). Dabei werden VRS-Daten vom Netzbetreiber, im vorliegenden Fall von der EVN Geoinfo GmbH, bereitgestellt und es entfällt die direkte Aufstellung auf den Festpunkten. Im Vergleich zur herkömmlichen statischen Messung treten Differenzen bis zu 6 cm in der Lage und 8 cm in der Höhe auf. Die zweite Messmethode ist die RTK-Messung mit eigener Referenzstation.
Es wurde ein Vergleich zur statischen Langzeitmessung gezogen. Das Verfahren lieferte leider keine aufschlussreichen Ergebnisse, da nur zwei Neupunkte ermittelt wurden und bei einem davon ein Messfehler aufgetreten ist. Die Werte des zweiten Neupunktes sind erwartungsgemäß etwas schlechter als die der statischen Langzeitmessung, etwa im Bereich der statischen Messung über drei Stunden (±1 cm). Ein weiteres Messszenario beruht ebenfalls auf der RTK-Messung, jedoch kommen die Referenzdaten erneut von der EVN als Referenznetzbetreiber.
Es erfolgte eine Auswertung und nicht nur ein Vergleich der in Echtzeit erhaltenen Koordinaten. Die Koordinatendifferenzen zur statischen Langzeitmessung liegen im Bereich von 3-6 cm in der Lage und bis zu 8 cm in der Höhe. Der direkte Vergleich zu dem zuvor beschriebenen Verfahren zeigt, dass sich bei der RTK-Messung mit eigener Referenz geringfügig bessere Ergebnisse erzielen lassen. Das vierte Verfahren ist eine Lage- und Höhenaufnahme. Dabei wurden 18 eindeutige Detailpunkte mehrfach eingemessen, wobei einerseits die Wiederholbarkeit der Messung an einem anderen Tag und andererseits das Verhalten bei häufigem Signalverlust von Interesse war. Für die meisten Punkte liegt die Wiederholbarkeit im Bereich von 3 cm in der Lage sowie 5 cm in der Höhe. Allerdings gibt es vier Punkte, deren mehrfachbestimmte Koordinaten sich um bis zu 8 cm unterscheiden. Zusammenfassend kann gesagt werden, dass sich mit der statische Langzeitmessung bei weitem die besten Ergebnisse erzielen lassen. Ein Nachteil ist jedoch die lange Messdauer sowie die Notwendigkeit mehrerer Geräte. Eine gute Alternative bieten die beiden RTK-Verfahren. Dabei ist der erheblich geringere Zeitaufwand im Verhältnis zur geringeren Genauigkeit der Ergebnisse zu betrachten. Es ist also bei jeder Anwendung, nach gewünschtem Ergebnis und Zeitaufwand, das jeweilige Messverfahren auszuwählen.
Evaluierung der Leica IATS für die konkrete Aufgabenstellung der On-line Objektrekonstruktion
Institut für Geodäsie und Geophysik, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2008
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Heribert Kahmen
Betreuer: O.Univ.Prof. Dipl.-Ing. Dr. Heribert Kahmen
Kurzfassung/Abstract
Im Bereich der Ingenieurgeodäsie besteht großes Interesse und erhöhter Bedarf an schnell arbeitenden, automatisierten Messsystemen. Die Entwicklungen der letzen Jahre gingen vor allem in Richtung optischer 3D-Messsysteme, wie z.B. Laserscanner oder photogrammetrische Messverfahren. Dank heutiger technischer Möglichkeiten wird auch die Forschung im Bereich bildgebender Sensormesssysteme immer interessanter.
Bemerkenswert ist vor allem die Entwicklung der Firma Leica Geosystems im Bereich der bildgebenden Tachymeter. Das als Prototyp einer Image Assisted Total Station entwickelte Messsystem wurde in den vergangenen Jahren am Institut für Geodäsie und Geophysik der Technischen Universität Wien im Rahmen von mehreren Forschungsprojekten weiterentwickelt und diente als Grundlage für die vorliegende Diplomarbeit.
Ziel dieser Arbeit ist die Untersuchung des gesamten Messsystems und der implementierten Messprozedur. Dabei standen vor allem Untersuchungen der Effizienz im Vordergrund. Die unter praktischen und Laborbedingungen erzielten Resultate bilden die Basis für diverse Verbesserungsvorschläge der Messroutine. Diese Arbeit beinhaltet weiters die Implementierung und Testung neuer verbesserter Arbeitsprozesse.
Im Bereich der Ingenieurgeodäsie besteht großes Interesse und erhöhter Bedarf an schnell arbeitenden, automatisierten Messsystemen. Die Entwicklungen der letzen Jahre gingen vor allem in Richtung optischer 3D-Messsysteme, wie z.B. Laserscanner oder photogrammetrische Messverfahren. Dank heutiger technischer Möglichkeiten wird auch die Forschung im Bereich bildgebender Sensormesssysteme immer interessanter.
Bemerkenswert ist vor allem die Entwicklung der Firma Leica Geosystems im Bereich der bildgebenden Tachymeter. Das als Prototyp einer Image Assisted Total Station entwickelte Messsystem wurde in den vergangenen Jahren am Institut für Geodäsie und Geophysik der Technischen Universität Wien im Rahmen von mehreren Forschungsprojekten weiterentwickelt und diente als Grundlage für die vorliegende Diplomarbeit.
Ziel dieser Arbeit ist die Untersuchung des gesamten Messsystems und der implementierten Messprozedur. Dabei standen vor allem Untersuchungen der Effizienz im Vordergrund. Die unter praktischen und Laborbedingungen erzielten Resultate bilden die Basis für diverse Verbesserungsvorschläge der Messroutine. Diese Arbeit beinhaltet weiters die Implementierung und Testung neuer verbesserter Arbeitsprozesse.
Spezifische WebGIS-Anwendung aus Open Source Komponenten als Ergänzung existierender GIS-Infrastrukturen für ein Landesamt
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2010
Betreuer: Dipl.-Ing. Roland Grillmayer
Betreuer: Dipl.-Ing. Roland Grillmayer
Kurzfassung/Abstract
In der vorliegenden Master Thesis wird die Integration einer WebGIS-Anwendung aus Open Source Komponenten in ein bestehendes, proprietäres GIS beschrieben. Diese Arbeit wurde im Auftrag von AIT - Austrian Institute of Technology - verfasst. Es handelt sich dabei um die Erstellung eines Katasters über Hangrutschung für die Abteilung Raumordnung der Burgenländischen Landesregierung. Als Datengrundlage dienen Aufzeichnungen über Massenbewegungen die im Sommer 2009 im Südburgenland aufgetreten sind. Mit der Datenbank und der WebGIS-Anwendung erhält der Benutzer die Möglichkeit der Selektion von Massenbewegungen durch eine Auswahl von festgelegten Suchparametern. Die WebGIS-Architektur besteht aus dem Apache Webserver, dem Geoserver, der PostgreSQL-Datenbank mit dem räumlichen Aufsatz PostGIS und - als Weboberfläche -- dem MapBender. Neben der Erklärung und Darstellung der verwendeten Komponenten umfasst diese Arbeit eine Erläuterung, warum Open Source Software, auch als Ergänzung zu bestehenden Systemen, eingesetzt werden sollte.
In der vorliegenden Master Thesis wird die Integration einer WebGIS-Anwendung aus Open Source Komponenten in ein bestehendes, proprietäres GIS beschrieben. Diese Arbeit wurde im Auftrag von AIT - Austrian Institute of Technology - verfasst. Es handelt sich dabei um die Erstellung eines Katasters über Hangrutschung für die Abteilung Raumordnung der Burgenländischen Landesregierung. Als Datengrundlage dienen Aufzeichnungen über Massenbewegungen die im Sommer 2009 im Südburgenland aufgetreten sind. Mit der Datenbank und der WebGIS-Anwendung erhält der Benutzer die Möglichkeit der Selektion von Massenbewegungen durch eine Auswahl von festgelegten Suchparametern. Die WebGIS-Architektur besteht aus dem Apache Webserver, dem Geoserver, der PostgreSQL-Datenbank mit dem räumlichen Aufsatz PostGIS und - als Weboberfläche -- dem MapBender. Neben der Erklärung und Darstellung der verwendeten Komponenten umfasst diese Arbeit eine Erläuterung, warum Open Source Software, auch als Ergänzung zu bestehenden Systemen, eingesetzt werden sollte.
Konzepte zur Erweiterung der Funktionalität von Web Mapping Anwendungen
Abteilung für Geoinformatik, Fachhochschule Wiener Neustadt, 2010
Betreuer: Dipl.-Ing. Roland Grillmayer
Betreuer: Dipl.-Ing. Roland Grillmayer
Kurzfassung/Abstract
Die Veröffentlichung von Google Maps und Google Earth im Jahr 2005 führte aus heutiger Sicht zu weitreichenden Entwicklungen. Viele Anwender nutzen die frei verfügbaren und zum Teil hoch auflösenden flächendeckenden Satelliten und Luftbilder sowie Straßenkarten, um raumbezogenen Aufgaben zu lösen, aber auch um räumlichen Daten mit Hilfe der APIs im Web zu verwalten und zu publizieren.
Es wurden bereits sehr viele Web Mapping Anwendungen basierend auf den Mapping APIs erstellt. Auch durch mobile Geräte und ortsbezogene Dienste bieten sich für Web Mapping APIs viele Einsatzmöglichkeiten. Aus Sicht des GI Bereichs kann an bestehenden Web Mapping APIs ein Mangel an Funktionalität festgestellt werden, wenngleich diese von dem jeweiligen Anbieter schrittweise um Funktionalität erweitert werden. Experten sind der Ansicht, dass in Zukunft noch mehr Funktionalität gefordert wird, und auch Laien räumliche Analysen durchführen werden.
Im Rahmen dieser Arbeit werden Konzepte zur Erweiterung der Funktionalität von Web Mapping API Anwendungen entworfen und getestet. Diese lassen sich in Clientseitige und Serverseitige Erweiterungen einteilen. Des Weiteren wurden Konzepte zur Auslagerung von Funktionalität untersucht, z.B. durch die Verwendung von Web Processing Services im Umfeld von GRID Computing oder Cloud Computing.
Die Veröffentlichung von Google Maps und Google Earth im Jahr 2005 führte aus heutiger Sicht zu weitreichenden Entwicklungen. Viele Anwender nutzen die frei verfügbaren und zum Teil hoch auflösenden flächendeckenden Satelliten und Luftbilder sowie Straßenkarten, um raumbezogenen Aufgaben zu lösen, aber auch um räumlichen Daten mit Hilfe der APIs im Web zu verwalten und zu publizieren.
Es wurden bereits sehr viele Web Mapping Anwendungen basierend auf den Mapping APIs erstellt. Auch durch mobile Geräte und ortsbezogene Dienste bieten sich für Web Mapping APIs viele Einsatzmöglichkeiten. Aus Sicht des GI Bereichs kann an bestehenden Web Mapping APIs ein Mangel an Funktionalität festgestellt werden, wenngleich diese von dem jeweiligen Anbieter schrittweise um Funktionalität erweitert werden. Experten sind der Ansicht, dass in Zukunft noch mehr Funktionalität gefordert wird, und auch Laien räumliche Analysen durchführen werden.
Im Rahmen dieser Arbeit werden Konzepte zur Erweiterung der Funktionalität von Web Mapping API Anwendungen entworfen und getestet. Diese lassen sich in Clientseitige und Serverseitige Erweiterungen einteilen. Des Weiteren wurden Konzepte zur Auslagerung von Funktionalität untersucht, z.B. durch die Verwendung von Web Processing Services im Umfeld von GRID Computing oder Cloud Computing.
Leistungsanalyse von VRS-Systemen im Einsatz für die Katastervermessung
Institut für Navigation und Satellitengeodäsie, Technische Universität Graz, 2010
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Seit einigen Jahren werden in der Vermessung vermehrt satellitengestützte Positionierungsmethoden eingesetzt. Dabei hat sich vor allem die RTK-Technologie weit verbreitet. Waren anfangs noch lokale Referenzstationen notwendig, so sind mittlerweile flächendeckende Referenzstationsnetze für ganz Österreich verfügbar. Diese Neuerung macht den Einsatz von RTK noch attraktiver und effizienter. Da die Methode eine Positionierung mit cm-Genauigkeit ermöglicht, wird sie auch im Bereich der Katastervermessung eingesetzt. Für Arbeiten im Kataster gibt es gesetzliche Vorgaben über die einzuhaltende Punktlagegenauigkeit. Dabei stellt sich nun die Frage, ob und unter welchen Umständen diese Richtlinien von RTK in Referenzstationsnetzen erfüllt werden. Ziel dieser Arbeit war anhand von Testmessungen festzustellen, welche Voraussetzungen erfüllt sein müssen um ein "gutes"
Messergebnis zu erhalten. Durchgeführt wurden Messungen mit Instrumenten der Hersteller Leica, Trimble, Topcon und Javad. Korrekturdaten wurden von den Referenzstationsnetzen APOS, EPOSA und NetFocus verwendet. Die mögliche Leistungsfähigkeit der Technologie unter idealen Vorraussetzungen wurde bereits mehrfach untersucht, deshalb wurde bei den Beobachtungen besonderes Augenmerk auf schlechte Umgebungsbedingungen gelegt. Die Instrumente liefern eine geschätzte Positionsgenauigkeit, DOP-Werte, Satellitenanzahl und weitere Parameter anhand derer die Qualität der Ergebnisse beurteilt werden kann. Doch keine dieser Größen kann die erreichte Genauigkeit 100%ig festlegen.
Deshalb wurde die Punktlagegenauigkeit der Messungen empirisch ermittelt und anschließend mit den Instrumentenangaben verglichen. Die Untersuchungen haben gezeigt, dass RTK unter nahezu allen Bedingungen für den Einsatz im Kataster geeignet ist. Dabei ist es unwesentlich welches Instrument oder welches Referenzstationsnetzwerk eingesetzt wird. Alle getesteten Kombinationen erfüllen die Vorgaben. Lediglich zwischen den einzelnen Netzen bestehen leichte Genauigkeitsunterschiede.
Die Messungen haben auch gezeigt, dass unter schlechten Bedingungen durchaus Abweichungen auftreten. Deshalb sollte RTK in der Katastervermessung nicht bedenkenlos eingesetzt werden. Um die Messumgebung richtig einzuschätzen und damit die Wahrscheinlichkeit von Fehlern zu reduzieren, muss ein Anwender Basiswissen über RTK und GNSS im Allgemeinen mitbringen. Einen ersten Einstieg in diese Thematik soll diese Arbeit bieten.
Seit einigen Jahren werden in der Vermessung vermehrt satellitengestützte Positionierungsmethoden eingesetzt. Dabei hat sich vor allem die RTK-Technologie weit verbreitet. Waren anfangs noch lokale Referenzstationen notwendig, so sind mittlerweile flächendeckende Referenzstationsnetze für ganz Österreich verfügbar. Diese Neuerung macht den Einsatz von RTK noch attraktiver und effizienter. Da die Methode eine Positionierung mit cm-Genauigkeit ermöglicht, wird sie auch im Bereich der Katastervermessung eingesetzt. Für Arbeiten im Kataster gibt es gesetzliche Vorgaben über die einzuhaltende Punktlagegenauigkeit. Dabei stellt sich nun die Frage, ob und unter welchen Umständen diese Richtlinien von RTK in Referenzstationsnetzen erfüllt werden. Ziel dieser Arbeit war anhand von Testmessungen festzustellen, welche Voraussetzungen erfüllt sein müssen um ein "gutes"
Messergebnis zu erhalten. Durchgeführt wurden Messungen mit Instrumenten der Hersteller Leica, Trimble, Topcon und Javad. Korrekturdaten wurden von den Referenzstationsnetzen APOS, EPOSA und NetFocus verwendet. Die mögliche Leistungsfähigkeit der Technologie unter idealen Vorraussetzungen wurde bereits mehrfach untersucht, deshalb wurde bei den Beobachtungen besonderes Augenmerk auf schlechte Umgebungsbedingungen gelegt. Die Instrumente liefern eine geschätzte Positionsgenauigkeit, DOP-Werte, Satellitenanzahl und weitere Parameter anhand derer die Qualität der Ergebnisse beurteilt werden kann. Doch keine dieser Größen kann die erreichte Genauigkeit 100%ig festlegen.
Deshalb wurde die Punktlagegenauigkeit der Messungen empirisch ermittelt und anschließend mit den Instrumentenangaben verglichen. Die Untersuchungen haben gezeigt, dass RTK unter nahezu allen Bedingungen für den Einsatz im Kataster geeignet ist. Dabei ist es unwesentlich welches Instrument oder welches Referenzstationsnetzwerk eingesetzt wird. Alle getesteten Kombinationen erfüllen die Vorgaben. Lediglich zwischen den einzelnen Netzen bestehen leichte Genauigkeitsunterschiede.
Die Messungen haben auch gezeigt, dass unter schlechten Bedingungen durchaus Abweichungen auftreten. Deshalb sollte RTK in der Katastervermessung nicht bedenkenlos eingesetzt werden. Um die Messumgebung richtig einzuschätzen und damit die Wahrscheinlichkeit von Fehlern zu reduzieren, muss ein Anwender Basiswissen über RTK und GNSS im Allgemeinen mitbringen. Einen ersten Einstieg in diese Thematik soll diese Arbeit bieten.