- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2019
Abschlussarbeiten 2019
GIOMO: Robuste Modellierung der ionosphärischen Signalverzögerung für GNSS Echtzeit Anwendungen
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2019
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Der obere Teil der Atmosphäre, der durch seine Elektronenkonzentration elektromagnetische Wellen beeinflusst, wird Ionosphäre genannt. Sie erstreckt sich von etwa 50 km bis zu 1500 km Höhe über der Erdoberfläche und wird von der Wissenschaft in mehrere Schichten unterteilt (D, E und F). Die Stärke der Ionisation hängt hauptsächlich mit der Sonnenaktivität und dem elektromagnetischen Feld zusammen. Die maximale Ionisierung wird somit um die Mittagszeit erreicht, während der Nacht wird nur eine sehr geringe Ionisierung festgestellt. Für Navigations- und Positionierungsanwendungen gilt die Verzögerungen von Signalen durch die Ionosphäre als Fehlerquelle, die es zu korrigieren gilt. Aufgrund der Dispersivität von Mikrowellen in der Ionosphäre kann der Effekt mit Zweifrequenzempfängern und unter Verwendung der ionosphärenfreien Linearkombination eliminiert werden. Bei Einfrequenzmessungen sind demnach Ionosphärenmodelle unumgänglich. Diese Arbeit beschäftigt sich mit der Entwicklung und Verwendung solcher Ionosphärenmodelle für die Positionierungsbestimmung mittels Satellitennavigation. Ein neues und einfaches Modell zur Korrektur der Ionosphärenverzögerung wird vorgestellt, das im Gegensatz zu etablierten Modellen nur aus fünf Parametern besteht. Die Verzögerung durch die Ionosphäre wird zusätzlich für verschiedene Anwendungen an diskreten, gitterförmig angeordneten Punkten verteilt über die gesamte Erde angegeben. Ein solch einfaches Modell erfüllt professionelle Anforderungen, wie in diesem Fall die des österreichischen Referenzstations-Anbieters EPOSA. Diese Firma beabsichtigt, diese Ionosphärenkorrekturdaten in ihren Anwendungen zu integrieren und den Nutzern von Einfrequenz-Geräten zur Verfügung zu stellen. Die Parameter des neu entwickelten Modells Giomo sind die Koordinaten und die Amplitude (VTECmax) des ionosphärischen Maximums und zwei Gewichtungsfunktionen in Länge und Breite. Diese Parameter werden in einer iterativen Kleinste-Quadrate-Ausgleichung basierend auf phasengeglätteten Codemessungen eines Netzwerks von global verteilten GNSS-Referenzstationen geschätzt. Die fünf Parameter werden wegen der schnellen Änderungen der ionosphärischen Korrekturen jede Stunde berechnet. Aufgrund der Nichtlinearität des Gleichungssystems benötigt die Ausgleichung a priori Werte innerhalb eines bestimmten Bereichs von +/-30% Differenz zum wahren Wert. Diese Arbeit zeigt, dass diese Genauigkeitsanforderungen mit den vorgestellten Methoden ausreichend erfüllt werden können. Eine statistische Analyse der mit dem Modell berechneten Daten zeigt einen mittleren formalen Fehler von 0.33 TECU +/-0.93 TECU (Median 0.27 TECU) von VTECmax. Die mittleren formalen Fehler der Gewichtungsfaktoren sind im Bereich von rund 1% der Gesamtwerte und die Koordinaten des ionosphärischen Maximums ergeben eine Genauigkeit von +/-0.24 Grad in Breite und +/-0.63 Grad in Länge. Statistisch signifikante Korrelationen von -0.6 finden sich für VTECmax mit jedem der Gewichtungsfaktoren und, wenn auch kleiner, für den Gewichtungsfaktor in Breite und die Breite des Maximums. Eine externe Validierung wird durchgeführt, indem das Giomo-Modell mit etablierten Ionosphären-Korrekturmodellen verglichen wird. Das Giomo-Modell zeigt eine gute Übereinstimmung sowohl mit dem CODE (0.8 TECU mittlere Differenz) als auch mit dem IGS Modell (0.1 TECU mittlere Differenz). Die tatsächliche Variation scheint jedoch größer zu sein, wie durch die Standardabweichungen angezeigt (CODE: +/-2,8 TECU, IGS: +/-2,8 TECU). Die Modelle von CODE und IGS zeigen untereinander eine Übereinstimmung unter 1 TECU (mittlere Differenz -0.9 TECU +/-0.52 TECU). Das Klobuchar Modell weist die größten Unterschiede zu allen anderen Modellen auf, was auf eine weniger genaue Vorhersage des Elektronengehaltes in der Ionosphäre hinweist. In einem weiteren Testverfahren werden die von den Modellen berechneten Verzögerungen in Pseudorange-Korrekturen umgewandelt, die anschließend an L1-Messungen angebracht werden. Als Referenzgröße dienen die Ergebnisse der ionosphärenfreien Linearkombination. Obwohl die Modelle von IGS und CODE besser abschneiden, liefert das in nahe Echtzeit verfügbare Giomo Modell vergleichbare Werte (Korrekturen innerhalb einer Differenz von +/-1 m: 79.9% für CODE, 80.1% für IGS und 75.5% für Giomo). Für Echtzeitanwendungen wie PPP muss das Modell auch prädiziert werden. Dazu werden mehrere Prädiktionsverfahren für die fünf Parameter getestet. Die besten Ergebnisse liefert ein gewichteter Durchschnitt der letzten drei Tage (bzw. fünf für den Parameter Länge des Maximums) zur gleichen Stunde des zu prognostizierenden Wertes.
Der obere Teil der Atmosphäre, der durch seine Elektronenkonzentration elektromagnetische Wellen beeinflusst, wird Ionosphäre genannt. Sie erstreckt sich von etwa 50 km bis zu 1500 km Höhe über der Erdoberfläche und wird von der Wissenschaft in mehrere Schichten unterteilt (D, E und F). Die Stärke der Ionisation hängt hauptsächlich mit der Sonnenaktivität und dem elektromagnetischen Feld zusammen. Die maximale Ionisierung wird somit um die Mittagszeit erreicht, während der Nacht wird nur eine sehr geringe Ionisierung festgestellt. Für Navigations- und Positionierungsanwendungen gilt die Verzögerungen von Signalen durch die Ionosphäre als Fehlerquelle, die es zu korrigieren gilt. Aufgrund der Dispersivität von Mikrowellen in der Ionosphäre kann der Effekt mit Zweifrequenzempfängern und unter Verwendung der ionosphärenfreien Linearkombination eliminiert werden. Bei Einfrequenzmessungen sind demnach Ionosphärenmodelle unumgänglich. Diese Arbeit beschäftigt sich mit der Entwicklung und Verwendung solcher Ionosphärenmodelle für die Positionierungsbestimmung mittels Satellitennavigation. Ein neues und einfaches Modell zur Korrektur der Ionosphärenverzögerung wird vorgestellt, das im Gegensatz zu etablierten Modellen nur aus fünf Parametern besteht. Die Verzögerung durch die Ionosphäre wird zusätzlich für verschiedene Anwendungen an diskreten, gitterförmig angeordneten Punkten verteilt über die gesamte Erde angegeben. Ein solch einfaches Modell erfüllt professionelle Anforderungen, wie in diesem Fall die des österreichischen Referenzstations-Anbieters EPOSA. Diese Firma beabsichtigt, diese Ionosphärenkorrekturdaten in ihren Anwendungen zu integrieren und den Nutzern von Einfrequenz-Geräten zur Verfügung zu stellen. Die Parameter des neu entwickelten Modells Giomo sind die Koordinaten und die Amplitude (VTECmax) des ionosphärischen Maximums und zwei Gewichtungsfunktionen in Länge und Breite. Diese Parameter werden in einer iterativen Kleinste-Quadrate-Ausgleichung basierend auf phasengeglätteten Codemessungen eines Netzwerks von global verteilten GNSS-Referenzstationen geschätzt. Die fünf Parameter werden wegen der schnellen Änderungen der ionosphärischen Korrekturen jede Stunde berechnet. Aufgrund der Nichtlinearität des Gleichungssystems benötigt die Ausgleichung a priori Werte innerhalb eines bestimmten Bereichs von +/-30% Differenz zum wahren Wert. Diese Arbeit zeigt, dass diese Genauigkeitsanforderungen mit den vorgestellten Methoden ausreichend erfüllt werden können. Eine statistische Analyse der mit dem Modell berechneten Daten zeigt einen mittleren formalen Fehler von 0.33 TECU +/-0.93 TECU (Median 0.27 TECU) von VTECmax. Die mittleren formalen Fehler der Gewichtungsfaktoren sind im Bereich von rund 1% der Gesamtwerte und die Koordinaten des ionosphärischen Maximums ergeben eine Genauigkeit von +/-0.24 Grad in Breite und +/-0.63 Grad in Länge. Statistisch signifikante Korrelationen von -0.6 finden sich für VTECmax mit jedem der Gewichtungsfaktoren und, wenn auch kleiner, für den Gewichtungsfaktor in Breite und die Breite des Maximums. Eine externe Validierung wird durchgeführt, indem das Giomo-Modell mit etablierten Ionosphären-Korrekturmodellen verglichen wird. Das Giomo-Modell zeigt eine gute Übereinstimmung sowohl mit dem CODE (0.8 TECU mittlere Differenz) als auch mit dem IGS Modell (0.1 TECU mittlere Differenz). Die tatsächliche Variation scheint jedoch größer zu sein, wie durch die Standardabweichungen angezeigt (CODE: +/-2,8 TECU, IGS: +/-2,8 TECU). Die Modelle von CODE und IGS zeigen untereinander eine Übereinstimmung unter 1 TECU (mittlere Differenz -0.9 TECU +/-0.52 TECU). Das Klobuchar Modell weist die größten Unterschiede zu allen anderen Modellen auf, was auf eine weniger genaue Vorhersage des Elektronengehaltes in der Ionosphäre hinweist. In einem weiteren Testverfahren werden die von den Modellen berechneten Verzögerungen in Pseudorange-Korrekturen umgewandelt, die anschließend an L1-Messungen angebracht werden. Als Referenzgröße dienen die Ergebnisse der ionosphärenfreien Linearkombination. Obwohl die Modelle von IGS und CODE besser abschneiden, liefert das in nahe Echtzeit verfügbare Giomo Modell vergleichbare Werte (Korrekturen innerhalb einer Differenz von +/-1 m: 79.9% für CODE, 80.1% für IGS und 75.5% für Giomo). Für Echtzeitanwendungen wie PPP muss das Modell auch prädiziert werden. Dazu werden mehrere Prädiktionsverfahren für die fünf Parameter getestet. Die besten Ergebnisse liefert ein gewichteter Durchschnitt der letzten drei Tage (bzw. fünf für den Parameter Länge des Maximums) zur gleichen Stunde des zu prognostizierenden Wertes.
Himmelsfeste Referenzrahmen der VLBI und Vergleich mit Gaia
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm, Dipl.-Ing. Dr. Hana Krasna
Kurzfassung/Abstract
Mit der Entdeckung von Quasaren (extragalaktische Radioquellen) in den 1960ern wurde das Feld der Astrometrie revolutioniert. Durch die große Entfernung dieser Quellen ist die Eigenbewegung vernachlässigbar, wodurch sie zum idealen Referenzpunkt werden. Beobachtet werden diese Quellen mit der Very Long Baseline Interferometry (VLBI), welche ein Netzwerk aus Radioteleskopen benutzt um hochgenaue Positionen zu bestimmen. Nur einige Jahrzehnte nach der Entdeckung von extragalaktischen Radioquellen wurde der bis dato genaueste Sternenkatalog im optischen Frequenzbereich durch einen Katalog von Quasaren im Radiofrequenzbereich als empfohlener Standard abgelöst. Für drei Jahrzehnte war die Genauigkeit der VLBI außer Reichweite für Verfahren im optischen Bereich des elektromagnetischen Spektrums. Das hat sich mit der Satellitenmission Gaia der European Space Agency (ESA), welche 2013 gestartet wurde, geändert. Gaia wurde entwickelt um die Milchstraße zu vermessen, allerdings misst Gaia unter anderem auch Quasare mit einer vergleichbaren Genauigkeit zu VLBI. Erstmals in der Geschichte der VLBI existiert ein Referenzrahmen mit ähnlichem Genauigkeitsniveau, welcher für Vergleiche herangezogen werden kann. In dieser Dissertation wird der Einfluss von unterschiedlichen Modellen und Analysestrategien auf den VLBI Referenzrahmen mit Hilfe des Gaia Referenzrahmens beurteilt. Bevor der Einfluss der Modelle und der Analysestrategien beurteilt werden kann, muss ein VLBI Referenzrahmen geschätzt werden. Dies wurde mit Hilfe der Vienna VLBI and Satellite Software (VieVS) durchgeführt. Das Ergebnis ist ein himmelsfester Referenzrahmen mit 4500 Quellenpositionen im X/S-Band, der im Umfang und der Genauigkeit dem International Celestial Reference Frame 3 (ICRF3) gleicht. Das Rauschen dieser Lösung beträgt 30 as mit Deformationen bezüglich ICRF3 unter 15 as. Um zwei astrometrische Kataloge zu vergleichen müssen idente Quellen gefunden und deren Differenz berechnet werden. Ausreißer müssen an dieser Stelle eliminiert werden und eine Methodik, um großräumige systematische Effekte aus der Differenzenstreuung zu extrahieren, muss angewandt werden. Eine geeignete Methodik um himmelsfeste Referenzrahmen zu vergleichen ist die Zerlegung in Vector Spherical Harmonics (VSH). Hierbei wird das Vektorfeld der Differenzen bis zu einem gewissen Grad in orthogonale Basisfunktionen zerlegt. Je größer der Grad der Zerlegung desto genauer kann das Vektorfeld abgebildet werden. Da hier allerdings nur großräumige Effekte von Interesse sind, wurde die Zerlegung mit Grad 2 abgebrochen. Grad 1 kann weiter in eine globale Rotation und Deformation (auch Glide v genannt) unterteilt werden. Werden nun die großräumigen systematischen Effekte im VLBI Referenzrahmen mit Hilfe des Gaia Referenzrahmens untersucht, stellt sich heraus, dass einige Modelle und Analysestrategien die Quellenkoordinaten systematisch beeinflussen. Erstens wurde herausgefunden, dass die Korrektur der galaktischen Aberration den größten Teil der Deformationen von Grad 1 (Glide) zwischen dem VLBI und Gaia Referenzrahmen entfernt. Zweitens wurde entdeckt, dass der D3-Parameter, welcher nur von der Quellendeklination abhängt, von sehr vielen Modellen und Analysestrategien beeinflusst wird. Das deutet auf eine schlechte Bestimmung der Deklination der Quellen hin, was mit der schlechten Verteilung der VLBI Teleskope auf der südlichen Hemisphäre zusammenhängt. Drittens wurde herausgefunden, dass a priori angebrachte troposphärische Laufzeitverzögerungen, welche mit Raytracing berechnet wurden, das hochsignifikante ae2,0 reduzieren können. Zusammenfassend ist zu sagen, dass der VLBI und der Gaia Referenzrahmen eine gute Übereinstimmung aufweisen, was zukünftige Studien zu Referenzpunkten ermöglichen wird.
Mit der Entdeckung von Quasaren (extragalaktische Radioquellen) in den 1960ern wurde das Feld der Astrometrie revolutioniert. Durch die große Entfernung dieser Quellen ist die Eigenbewegung vernachlässigbar, wodurch sie zum idealen Referenzpunkt werden. Beobachtet werden diese Quellen mit der Very Long Baseline Interferometry (VLBI), welche ein Netzwerk aus Radioteleskopen benutzt um hochgenaue Positionen zu bestimmen. Nur einige Jahrzehnte nach der Entdeckung von extragalaktischen Radioquellen wurde der bis dato genaueste Sternenkatalog im optischen Frequenzbereich durch einen Katalog von Quasaren im Radiofrequenzbereich als empfohlener Standard abgelöst. Für drei Jahrzehnte war die Genauigkeit der VLBI außer Reichweite für Verfahren im optischen Bereich des elektromagnetischen Spektrums. Das hat sich mit der Satellitenmission Gaia der European Space Agency (ESA), welche 2013 gestartet wurde, geändert. Gaia wurde entwickelt um die Milchstraße zu vermessen, allerdings misst Gaia unter anderem auch Quasare mit einer vergleichbaren Genauigkeit zu VLBI. Erstmals in der Geschichte der VLBI existiert ein Referenzrahmen mit ähnlichem Genauigkeitsniveau, welcher für Vergleiche herangezogen werden kann. In dieser Dissertation wird der Einfluss von unterschiedlichen Modellen und Analysestrategien auf den VLBI Referenzrahmen mit Hilfe des Gaia Referenzrahmens beurteilt. Bevor der Einfluss der Modelle und der Analysestrategien beurteilt werden kann, muss ein VLBI Referenzrahmen geschätzt werden. Dies wurde mit Hilfe der Vienna VLBI and Satellite Software (VieVS) durchgeführt. Das Ergebnis ist ein himmelsfester Referenzrahmen mit 4500 Quellenpositionen im X/S-Band, der im Umfang und der Genauigkeit dem International Celestial Reference Frame 3 (ICRF3) gleicht. Das Rauschen dieser Lösung beträgt 30 as mit Deformationen bezüglich ICRF3 unter 15 as. Um zwei astrometrische Kataloge zu vergleichen müssen idente Quellen gefunden und deren Differenz berechnet werden. Ausreißer müssen an dieser Stelle eliminiert werden und eine Methodik, um großräumige systematische Effekte aus der Differenzenstreuung zu extrahieren, muss angewandt werden. Eine geeignete Methodik um himmelsfeste Referenzrahmen zu vergleichen ist die Zerlegung in Vector Spherical Harmonics (VSH). Hierbei wird das Vektorfeld der Differenzen bis zu einem gewissen Grad in orthogonale Basisfunktionen zerlegt. Je größer der Grad der Zerlegung desto genauer kann das Vektorfeld abgebildet werden. Da hier allerdings nur großräumige Effekte von Interesse sind, wurde die Zerlegung mit Grad 2 abgebrochen. Grad 1 kann weiter in eine globale Rotation und Deformation (auch Glide v genannt) unterteilt werden. Werden nun die großräumigen systematischen Effekte im VLBI Referenzrahmen mit Hilfe des Gaia Referenzrahmens untersucht, stellt sich heraus, dass einige Modelle und Analysestrategien die Quellenkoordinaten systematisch beeinflussen. Erstens wurde herausgefunden, dass die Korrektur der galaktischen Aberration den größten Teil der Deformationen von Grad 1 (Glide) zwischen dem VLBI und Gaia Referenzrahmen entfernt. Zweitens wurde entdeckt, dass der D3-Parameter, welcher nur von der Quellendeklination abhängt, von sehr vielen Modellen und Analysestrategien beeinflusst wird. Das deutet auf eine schlechte Bestimmung der Deklination der Quellen hin, was mit der schlechten Verteilung der VLBI Teleskope auf der südlichen Hemisphäre zusammenhängt. Drittens wurde herausgefunden, dass a priori angebrachte troposphärische Laufzeitverzögerungen, welche mit Raytracing berechnet wurden, das hochsignifikante ae2,0 reduzieren können. Zusammenfassend ist zu sagen, dass der VLBI und der Gaia Referenzrahmen eine gute Übereinstimmung aufweisen, was zukünftige Studien zu Referenzpunkten ermöglichen wird.
Automatische Analyse und Prozessierung hochauflösender Punktwolken für die Untersuchung eines paläontologischen Austernriffs
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer
Kurzfassung/Abstract
Für die Erfassung von Punktwolken wurde eine breite Palette von Sensoren zur Aufnahme der dreidimensionalen (3D) Struktur von Objekten entwickelt. Darunter ist das Terrestrische Laserscanning (TLS) eine komfortable Akquisitionsmethode für die 3D-Datenerfassung im Nahbereich. Die so erfassten Punktwolken etablierten sich als zuverlässige Grundlage für die Erstellung von digitalen, hochauflösenden und detaillierten 3D-Modellen. So werden die Punktwolken in verschiedenen Disziplinen angewendet. Dazu gehören das Naturerbe sowie die Überwachung und Kartierung geologischer paläontologischer Stätten. Punktwolken haben einen Vorteil gegenüber Bildern in der digitalen Dokumentation des aktuellen Zustands von Fossilien für die digitale Archivierung und Geometrieextraktion, da sie ihre dreidimensionale Struktur erfassen. Bilddaten haben in Fällen, in denen mehrere Fossilien einander überlappen, die Objekte Selbstähnlichkeit haben oder die Szene vorstehende Objekte aufweist, Beschränkungen. Der Komplex, der sich auf dem Austernriff befindet, und die Selbstähnlichkeit des Objekts machten eine automatische Bündelblockanpassung des Riffs unmöglich. Ein versteinertes Austernriff ist ein gutes Beispiel für eine dicht gepackte Umgebung, in der Geometrieschätzungen gekrümmter Objekte zu einer komplexen und anspruchsvollen Aufgabe werden. In dieser Arbeit wird gezeigt, wie die Techniken der Punktwolkenverarbeitung auf dem größten fossilen Austernriff der Welt in Stetten, Niederösterreich, angewendet werden. Dieses dicht gepackte Muschelbett wurde vor etwa 16,5 Millionen Jahren in einer tropischen Flussmündung geformt. Die ursprünglichen Austern vom Typ Magallana gryphoides starben genau dort, wo sie in ihrer ursprünglichen Umgebung lebten, aber sie wurden nicht so gefunden, wie sie in ihrer ursprünglichen Form waren. Stattdessen waren ihre einzelnen Schalen auf der freigelegten Fläche des dicht gepackten Riffs (rund 459 m2) verstreut. Die paläontologische Stätte wurde zwischen 2005 und 2008 im Zuge von Messkampagnen des Naturhistorischen Museums Wien ausgegraben. Im Jahr 2014 wurde am Riff eine Laserscanning- und Photogrammetriekampagne mit dem Ziel durchgeführt, dessen Inhalt zu digitalisieren. Die große und komplexe Anlage wurde mit einem ferngesteuerten High-Speed FARO Focus3D Laserscanner und einer Canon 60D Kamera mit einem Canon EF 20 mm f2.8 Objektiv digital dokumentiert. Die 3D-Punktwolken und hochauflösenden Bilder aus dieser Messkampagne wurden mit photogrammetrischen Methoden zu einem digitalen Oberflächenmodell (DSM, 1 mm Auflösung) und einem Orthophoto von 0,5 mm Auflösung verarbeitet, um die paläontologische Interpretation des Ortes zu unterstützen. Während die Literatur über die frühe Miozän-Mündung umfangreich ist, ist das Wissen über die fossile Zusammensetzung (Taphonomie), Größe oder Orientierung an den Standorten begrenzt. Daher besteht Interesse daran, neue Techniken zu testen und zu erproben, um seltene fossile Objekte zu dokumentieren und um solche Stellen auf effektive, automatische und objektive Weise zu untersuchen. Die Verwendung von digitalen 3D-Punktwolken bietet hierfür eine praktikable Option und das Interesse daran nahm nach den ersten veröffentlichten wissenschaftlichen Beiträgen zu. Daher ist die in dieser Arbeit durchgeführte Forschung von besonderem Interesse, da sie Forschungsfragen beantworten soll, die zwischen Studien der Photogrammetrie und Geologie entstanden sind. Um diese Fragen zu beantworten, schlägt diese Dissertation neue Methoden vor, darunter die Entwicklung einer Strategie zur Erfassung unregelmäßiger Oberflächen durch hochauflösende Punktwolken, um Umrisse von Muscheln zu erkennen, eine Methode zum Zählen und Erkennen der Anzahl von Muscheln im Riff und Methoden zur Schätzung der 3D-Länge der Schalen, um die Schalenorientierung abzuleiten, Schalenvolumina zu schätzen und thematische Karten zu visualisieren und zu entwerfen, um die Interpretationsarbeit zu verbessern. In der Arbeit wird auch ein Geographisches Informationssystem (GIS) zur Referenzdatenerfassung und die Bewertung der Zuverlässigkeit der automatisierten Verarbeitungsergebnisse genutzt. Die Arbeit präsentiert die Forschungsergebnisse, die in sechs eigenständigen Forschungs- und Konferenzartikeln ausgewertet wurden. Alle Artikel wurden einem Peer-Review-Prozess unterzogen und in Fachzeitschriften zu Themen der Erdwissenschaften sowie auf einer Konferenz der International Society of Photogrammetry and Remote Sensing (ISPRS) veröffentlicht. In den Beiträgen I und II werden Forschungsfragen bezüglich der Schalen-Taphonomie, der Schalenzahl im Riff und der Formierung des Muschelbetts durch einen Sturm oder Tsunami untersucht. Einzelne Schalenvolumenschätzungen wurden ebenso berücksichtigt wie mögliche Muster in der Verteilung und Zusammensetzung von Schalen zwischen zwei Datensatztransekten am Riff (N-S, W-E). Beitrag III beschreibt die Einstellungen von Datenerfassung, Datenmanagement und Koordinatensystemen zur Digitalisierung eines großen versteinerten Austernriffs. Die Studie demonstriert das Potenzial hochauflösender 3D-Daten und -Fotografien, indem sie einen Ansatz dokumentiert, der einzelne Schalen in einer komplexen Umgebung erfasst. Dies ist eine entscheidende Aufgabe, um die Schalen an einer paläontologischen Stelle zu zählen. Beitrag IV untersucht die automatische Bestimmung von 3D-Orientierungen von versteinerten Austernschalen in einem kartesischen Koordinatensystem, wo sie als langgestreckte Objekte dargestellt wurden, deren Rotationswinkel (Roll, Pitch, und Yaw) für eine geowissenschaftliche Anwendung bestimmt wurden. Das Ziel der Untersuchung war herauszufinden, ob die Standorte von stark geneigten Austernschalen eine statistisch signifikante Korrelation mit den nahe gelegenen Verwerfungslinien im Riff aufweisen. Der Artikel V untersucht technisch, wie man die 3D-Länge von Muscheln bestimmen kann und demonstriert eine Methode, um automatisch eine 3D-Mittellinie aus verschiedenen Formen fossiler Austernschalen zu extrahieren. Bestimmte zentrale Linieneigenschaften stehen in direktem Zusammenhang mit den Inkrustationsschätzungen. Der Artikel VI präsentiert die erste GIS - Datenbank als Schnittstelle eines digitalen Austernriffs und eines Verwaltungswerkzeug für ein geschütztes Naturerbe. Die Beiträge der Dissertation zeigen, dass die terrestrischen Laser-Scanning-Punktwolken effektive und bequeme Datenquellen sind, um millimetergroße Modelle paläontologischer Standorte zu erstellen. TLS bietet genaue Messungen von Objekten mit komplexer Geometrie, wie versteinerten Austernschalen. Die Arbeit konzentriert sich auf die Untersuchung der Möglichkeiten von Laserscanning-Daten in verschiedenen Modellierungsaufgaben, einschließlich der Identifizierung von fossilen Umrissen und der Bestimmung ihrer Größe, Orientierung, Volumen und anderer physikalischer Parameter, die für genaue paläontologische Interpretationen benötigt werden. Diese Arbeit untersucht dazu photogrammetrische Methoden, die diese Anforderungen erfüllen und Ergebnisse liefern, die zur Unterstützung paläontologischer Interpretationen leicht visualisiert werden können. Die Ergebnisse unter Berücksichtigung aller Bewertungen werden ebenfalls beschrieben. Als ein Beispiel für die entwickelten Methoden hat die Arbeit zur Vorbereitung und Veröffentlichung eines umfassenden paläontologischen 3D-Datensatzes beigetragen. Der Datensatz dokumentiert das Austernriff mit Millimeterpunktwolken, digitalen Oberflächenmodellen und Orthophotos. Der Datensatz bietet ein umfangreiches Testfeld für die weitere Methodenentwicklung in den Bereichen Photogrammetrie und Computer Vision und soll Paläontologen helfen, neue Datenerfassungskampagnen zu planen, um genauere Interpretationen zu ermöglichen.
Für die Erfassung von Punktwolken wurde eine breite Palette von Sensoren zur Aufnahme der dreidimensionalen (3D) Struktur von Objekten entwickelt. Darunter ist das Terrestrische Laserscanning (TLS) eine komfortable Akquisitionsmethode für die 3D-Datenerfassung im Nahbereich. Die so erfassten Punktwolken etablierten sich als zuverlässige Grundlage für die Erstellung von digitalen, hochauflösenden und detaillierten 3D-Modellen. So werden die Punktwolken in verschiedenen Disziplinen angewendet. Dazu gehören das Naturerbe sowie die Überwachung und Kartierung geologischer paläontologischer Stätten. Punktwolken haben einen Vorteil gegenüber Bildern in der digitalen Dokumentation des aktuellen Zustands von Fossilien für die digitale Archivierung und Geometrieextraktion, da sie ihre dreidimensionale Struktur erfassen. Bilddaten haben in Fällen, in denen mehrere Fossilien einander überlappen, die Objekte Selbstähnlichkeit haben oder die Szene vorstehende Objekte aufweist, Beschränkungen. Der Komplex, der sich auf dem Austernriff befindet, und die Selbstähnlichkeit des Objekts machten eine automatische Bündelblockanpassung des Riffs unmöglich. Ein versteinertes Austernriff ist ein gutes Beispiel für eine dicht gepackte Umgebung, in der Geometrieschätzungen gekrümmter Objekte zu einer komplexen und anspruchsvollen Aufgabe werden. In dieser Arbeit wird gezeigt, wie die Techniken der Punktwolkenverarbeitung auf dem größten fossilen Austernriff der Welt in Stetten, Niederösterreich, angewendet werden. Dieses dicht gepackte Muschelbett wurde vor etwa 16,5 Millionen Jahren in einer tropischen Flussmündung geformt. Die ursprünglichen Austern vom Typ Magallana gryphoides starben genau dort, wo sie in ihrer ursprünglichen Umgebung lebten, aber sie wurden nicht so gefunden, wie sie in ihrer ursprünglichen Form waren. Stattdessen waren ihre einzelnen Schalen auf der freigelegten Fläche des dicht gepackten Riffs (rund 459 m2) verstreut. Die paläontologische Stätte wurde zwischen 2005 und 2008 im Zuge von Messkampagnen des Naturhistorischen Museums Wien ausgegraben. Im Jahr 2014 wurde am Riff eine Laserscanning- und Photogrammetriekampagne mit dem Ziel durchgeführt, dessen Inhalt zu digitalisieren. Die große und komplexe Anlage wurde mit einem ferngesteuerten High-Speed FARO Focus3D Laserscanner und einer Canon 60D Kamera mit einem Canon EF 20 mm f2.8 Objektiv digital dokumentiert. Die 3D-Punktwolken und hochauflösenden Bilder aus dieser Messkampagne wurden mit photogrammetrischen Methoden zu einem digitalen Oberflächenmodell (DSM, 1 mm Auflösung) und einem Orthophoto von 0,5 mm Auflösung verarbeitet, um die paläontologische Interpretation des Ortes zu unterstützen. Während die Literatur über die frühe Miozän-Mündung umfangreich ist, ist das Wissen über die fossile Zusammensetzung (Taphonomie), Größe oder Orientierung an den Standorten begrenzt. Daher besteht Interesse daran, neue Techniken zu testen und zu erproben, um seltene fossile Objekte zu dokumentieren und um solche Stellen auf effektive, automatische und objektive Weise zu untersuchen. Die Verwendung von digitalen 3D-Punktwolken bietet hierfür eine praktikable Option und das Interesse daran nahm nach den ersten veröffentlichten wissenschaftlichen Beiträgen zu. Daher ist die in dieser Arbeit durchgeführte Forschung von besonderem Interesse, da sie Forschungsfragen beantworten soll, die zwischen Studien der Photogrammetrie und Geologie entstanden sind. Um diese Fragen zu beantworten, schlägt diese Dissertation neue Methoden vor, darunter die Entwicklung einer Strategie zur Erfassung unregelmäßiger Oberflächen durch hochauflösende Punktwolken, um Umrisse von Muscheln zu erkennen, eine Methode zum Zählen und Erkennen der Anzahl von Muscheln im Riff und Methoden zur Schätzung der 3D-Länge der Schalen, um die Schalenorientierung abzuleiten, Schalenvolumina zu schätzen und thematische Karten zu visualisieren und zu entwerfen, um die Interpretationsarbeit zu verbessern. In der Arbeit wird auch ein Geographisches Informationssystem (GIS) zur Referenzdatenerfassung und die Bewertung der Zuverlässigkeit der automatisierten Verarbeitungsergebnisse genutzt. Die Arbeit präsentiert die Forschungsergebnisse, die in sechs eigenständigen Forschungs- und Konferenzartikeln ausgewertet wurden. Alle Artikel wurden einem Peer-Review-Prozess unterzogen und in Fachzeitschriften zu Themen der Erdwissenschaften sowie auf einer Konferenz der International Society of Photogrammetry and Remote Sensing (ISPRS) veröffentlicht. In den Beiträgen I und II werden Forschungsfragen bezüglich der Schalen-Taphonomie, der Schalenzahl im Riff und der Formierung des Muschelbetts durch einen Sturm oder Tsunami untersucht. Einzelne Schalenvolumenschätzungen wurden ebenso berücksichtigt wie mögliche Muster in der Verteilung und Zusammensetzung von Schalen zwischen zwei Datensatztransekten am Riff (N-S, W-E). Beitrag III beschreibt die Einstellungen von Datenerfassung, Datenmanagement und Koordinatensystemen zur Digitalisierung eines großen versteinerten Austernriffs. Die Studie demonstriert das Potenzial hochauflösender 3D-Daten und -Fotografien, indem sie einen Ansatz dokumentiert, der einzelne Schalen in einer komplexen Umgebung erfasst. Dies ist eine entscheidende Aufgabe, um die Schalen an einer paläontologischen Stelle zu zählen. Beitrag IV untersucht die automatische Bestimmung von 3D-Orientierungen von versteinerten Austernschalen in einem kartesischen Koordinatensystem, wo sie als langgestreckte Objekte dargestellt wurden, deren Rotationswinkel (Roll, Pitch, und Yaw) für eine geowissenschaftliche Anwendung bestimmt wurden. Das Ziel der Untersuchung war herauszufinden, ob die Standorte von stark geneigten Austernschalen eine statistisch signifikante Korrelation mit den nahe gelegenen Verwerfungslinien im Riff aufweisen. Der Artikel V untersucht technisch, wie man die 3D-Länge von Muscheln bestimmen kann und demonstriert eine Methode, um automatisch eine 3D-Mittellinie aus verschiedenen Formen fossiler Austernschalen zu extrahieren. Bestimmte zentrale Linieneigenschaften stehen in direktem Zusammenhang mit den Inkrustationsschätzungen. Der Artikel VI präsentiert die erste GIS - Datenbank als Schnittstelle eines digitalen Austernriffs und eines Verwaltungswerkzeug für ein geschütztes Naturerbe. Die Beiträge der Dissertation zeigen, dass die terrestrischen Laser-Scanning-Punktwolken effektive und bequeme Datenquellen sind, um millimetergroße Modelle paläontologischer Standorte zu erstellen. TLS bietet genaue Messungen von Objekten mit komplexer Geometrie, wie versteinerten Austernschalen. Die Arbeit konzentriert sich auf die Untersuchung der Möglichkeiten von Laserscanning-Daten in verschiedenen Modellierungsaufgaben, einschließlich der Identifizierung von fossilen Umrissen und der Bestimmung ihrer Größe, Orientierung, Volumen und anderer physikalischer Parameter, die für genaue paläontologische Interpretationen benötigt werden. Diese Arbeit untersucht dazu photogrammetrische Methoden, die diese Anforderungen erfüllen und Ergebnisse liefern, die zur Unterstützung paläontologischer Interpretationen leicht visualisiert werden können. Die Ergebnisse unter Berücksichtigung aller Bewertungen werden ebenfalls beschrieben. Als ein Beispiel für die entwickelten Methoden hat die Arbeit zur Vorbereitung und Veröffentlichung eines umfassenden paläontologischen 3D-Datensatzes beigetragen. Der Datensatz dokumentiert das Austernriff mit Millimeterpunktwolken, digitalen Oberflächenmodellen und Orthophotos. Der Datensatz bietet ein umfangreiches Testfeld für die weitere Methodenentwicklung in den Bereichen Photogrammetrie und Computer Vision und soll Paläontologen helfen, neue Datenerfassungskampagnen zu planen, um genauere Interpretationen zu ermöglichen.
Optimizing geodetic VLBI schedules with VieSched++
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Very Long Baseline Interferometry (VLBI) is a technique that uses globally distributed radio telescopes to observe signals from extragalactic objects to measure their difference in arrival time at the telescopes by cross-correlation. Thereby, VLBI measures the positions and movements of these telescopes as well as the positions of the observed sources and orientation of the Earth in space. Since multiple stations have to observe the same radio sources simultaneously, an observing plan, the so-called schedule, has to be generated. The generation of a geodetic VLBI schedule can be seen as an advanced optimization problem. It is necessary to optimize the time and observations of every telescope while many boundary conditions exist. A geodetic VLBI schedule is typically generated scan after scan by testing and evaluating all possibilities. In this work, a general overview about VLBI scheduling is given followed by a discussion of the models and concepts which are used in existing scheduling software, such as sub-netting, fill-in-mode, and tagalong-mode. The main topic of this thesis is the development of a new VLBI scheduling software which is called VieSched++. The software is written in modern C++ for enhanced performance and uses an object-oriented software design. Every algorithm in VieSched++ is developed from scratch based on the knowledge gained through analyzing existing schedules and scheduling software. The design ideas of these algorithms are discussed in this work in all details. Since VLBI scheduling is a complex task with many parameters and requirements interfering with each other, VieSched++ is designed to optimize schedules based on a brute-force approach, meaning, that it does not only generate one schedule for a session but is able to generate hundreds of schedules simultaneously by using different scheduling input parameters. These schedules can then be compared based on scheduling statistics or through Monte-Carlo simulations to pick the most appropriate schedule for the given session and scientific goal. VieSched++ is already used to schedule multiple official observing programs for the International VLBI Service for Geodesy and Astrometry (IVS) and other parties. First results reveal a significant improvement in the accuracy of geodetic parameters during the analysis of sessions scheduled with VieSched++. It was possible to increase the number of observations for the T2 observing program by a factor of two to three and the schedules for the EURR&D program were also improved significantly. On average, the improvement in accuracy of the geodetic parameters is also a factor of two to three. In summary, this work highlights the need to improve geodetic VLBI scheduling and reveals how this can be achieved.
Very Long Baseline Interferometry (VLBI) is a technique that uses globally distributed radio telescopes to observe signals from extragalactic objects to measure their difference in arrival time at the telescopes by cross-correlation. Thereby, VLBI measures the positions and movements of these telescopes as well as the positions of the observed sources and orientation of the Earth in space. Since multiple stations have to observe the same radio sources simultaneously, an observing plan, the so-called schedule, has to be generated. The generation of a geodetic VLBI schedule can be seen as an advanced optimization problem. It is necessary to optimize the time and observations of every telescope while many boundary conditions exist. A geodetic VLBI schedule is typically generated scan after scan by testing and evaluating all possibilities. In this work, a general overview about VLBI scheduling is given followed by a discussion of the models and concepts which are used in existing scheduling software, such as sub-netting, fill-in-mode, and tagalong-mode. The main topic of this thesis is the development of a new VLBI scheduling software which is called VieSched++. The software is written in modern C++ for enhanced performance and uses an object-oriented software design. Every algorithm in VieSched++ is developed from scratch based on the knowledge gained through analyzing existing schedules and scheduling software. The design ideas of these algorithms are discussed in this work in all details. Since VLBI scheduling is a complex task with many parameters and requirements interfering with each other, VieSched++ is designed to optimize schedules based on a brute-force approach, meaning, that it does not only generate one schedule for a session but is able to generate hundreds of schedules simultaneously by using different scheduling input parameters. These schedules can then be compared based on scheduling statistics or through Monte-Carlo simulations to pick the most appropriate schedule for the given session and scientific goal. VieSched++ is already used to schedule multiple official observing programs for the International VLBI Service for Geodesy and Astrometry (IVS) and other parties. First results reveal a significant improvement in the accuracy of geodetic parameters during the analysis of sessions scheduled with VieSched++. It was possible to increase the number of observations for the T2 observing program by a factor of two to three and the schedules for the EURR&D program were also improved significantly. On average, the improvement in accuracy of the geodetic parameters is also a factor of two to three. In summary, this work highlights the need to improve geodetic VLBI scheduling and reveals how this can be achieved.
Improving the understanding of transient electromagnetic signals for near-surface applications by assessing the turn-off ramp
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2019
Betreuer: Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
The application of the transient electromagnetic (TEM) method to near surface problems depends mainly on the correct resolution of shallow subsurface layers. To resolve the near-surface layers using the TEM method, it is necessary to adjust the obtained signals using correct turn-off ramp times. Hence, the main aim of this work is the quantification of the turn-off ramp. Furthermore, the ramp times are applied to improve the inversion results for determining correct electrical resistivity logs. Additionally, two case studies with a focus on near surface problems are presented to evaluate the corrected TEM resistivity logs. Within the first case study a brick-clay deposit is investigated to quantify the clay content in the subsurface. The aim of the second case study is to develop a novel methodology to characterize a clayey landslide. The quantification of the turn-off ramp was done by using an oscilloscope to measure the signals within the transmitter loop. The brick clay deposit is investigated using electric and electromagnetic methods and the results are validated by comparison to the clay content measured from in-situ soil samples. The development of a novel methodology to characterize a clayey landslide is based upon the integral application of geophysical and geotechnical methods. By application of seismic refraction tomography, it was possible to delineate unconsolidated areas in the subsurface, while the electrical and electromagnetic methods were able to discriminate between different lithological units. The evaluation of the, in terms of the turn-off ramp, corrected TEM resistivity logs was successful, since the TEM method was able to obtain similar results as the well-established electrical resistivity method. The oscilloscope measurements were repeated at different sites and for multiple measurement configurations to provide a data base of turn-off ramp times, ranging between 0.1 and 10 s.
The application of the transient electromagnetic (TEM) method to near surface problems depends mainly on the correct resolution of shallow subsurface layers. To resolve the near-surface layers using the TEM method, it is necessary to adjust the obtained signals using correct turn-off ramp times. Hence, the main aim of this work is the quantification of the turn-off ramp. Furthermore, the ramp times are applied to improve the inversion results for determining correct electrical resistivity logs. Additionally, two case studies with a focus on near surface problems are presented to evaluate the corrected TEM resistivity logs. Within the first case study a brick-clay deposit is investigated to quantify the clay content in the subsurface. The aim of the second case study is to develop a novel methodology to characterize a clayey landslide. The quantification of the turn-off ramp was done by using an oscilloscope to measure the signals within the transmitter loop. The brick clay deposit is investigated using electric and electromagnetic methods and the results are validated by comparison to the clay content measured from in-situ soil samples. The development of a novel methodology to characterize a clayey landslide is based upon the integral application of geophysical and geotechnical methods. By application of seismic refraction tomography, it was possible to delineate unconsolidated areas in the subsurface, while the electrical and electromagnetic methods were able to discriminate between different lithological units. The evaluation of the, in terms of the turn-off ramp, corrected TEM resistivity logs was successful, since the TEM method was able to obtain similar results as the well-established electrical resistivity method. The oscilloscope measurements were repeated at different sites and for multiple measurement configurations to provide a data base of turn-off ramp times, ranging between 0.1 and 10 s.
Grundstücksvermessung – Vergleich des Österreichischen und Polnischen Systems
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2019
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
In der Arbeit sind die beiden Katastersysteme von Österreich und Polen zusammengestellt. Die Systeme werden empirisch anhand von praktischen Beispielen hinsichtlich ihrer Organisation, ihres Aufbaus und ihrer eingeschränkten Effizienz untersucht. Die Fallbeispiele wurden so gewählt, dass sie in vergleichbaren Städten liegen, hinsichtlich Fläche, Einwohnerzahl und Hauptstadtfunktion. Die beiden Systeme waren historisch verbunden. Es wurden die drei folgenden Hypothesen formuliert und beantwortet: - die Organisation ist in beiden Ländern verschiedenen, - das System der Grundstücksvermessung in Polen ist prinzipiell ähnlich wie in Österreich, - der Endkunde bekommt gleichwertige Informationen aber die Kosten und die Dauer sind unterschiedlich. Es werden nicht nur die Vorschriften verglichen, sondern auch die entstehenden Kosten und die Bearbeitungszeiten für die Antragsteller gegenübergestellt. Basierend auf den Ergebnissen der Analyse werden Verbesserungen vorgeschlagen.
In der Arbeit sind die beiden Katastersysteme von Österreich und Polen zusammengestellt. Die Systeme werden empirisch anhand von praktischen Beispielen hinsichtlich ihrer Organisation, ihres Aufbaus und ihrer eingeschränkten Effizienz untersucht. Die Fallbeispiele wurden so gewählt, dass sie in vergleichbaren Städten liegen, hinsichtlich Fläche, Einwohnerzahl und Hauptstadtfunktion. Die beiden Systeme waren historisch verbunden. Es wurden die drei folgenden Hypothesen formuliert und beantwortet: - die Organisation ist in beiden Ländern verschiedenen, - das System der Grundstücksvermessung in Polen ist prinzipiell ähnlich wie in Österreich, - der Endkunde bekommt gleichwertige Informationen aber die Kosten und die Dauer sind unterschiedlich. Es werden nicht nur die Vorschriften verglichen, sondern auch die entstehenden Kosten und die Bearbeitungszeiten für die Antragsteller gegenübergestellt. Basierend auf den Ergebnissen der Analyse werden Verbesserungen vorgeschlagen.
Using Terrestrial Photogrammetry for 3D Digital Documentation of Cultural Heritages in North Cyprus
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2019
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
History is a vital part of any community as it represents humanity's wealth. Further it provides assistance in apprehending each cultures ancestor. Cyprus is known for the many passing of different cultures. Consequently, with the use of digital technology preserving, reconstructing and analyzing sites has become possible. With the use of images, it has been made possible to understand, visualize, perceive and preserve the cultural heritage. The goal of the research was to develop a workflow and concept for 3D Modeling for 3D digital documentation of cultural heritage sites using terrestrial photogrammetry. Many requirements for the application of this technique have been examined and the ability to create a quality product with cheap, easy, fast and good methodology paved the way for the use of this technique. Based on this technique, the applicability of the 3D Image Vector tool when compared to the usage of the classical digital camera system while documenting and modeling cultural heritage in 3D format has been discovered. The data was composed of very high-quality accuracy images (mm range) with 80% image overlapping. The data processing part has been completed by the photogrammetric software package called Agisoft Metashape Pro. All settings were monitored in detail while 3D model was created and applied to the final stage of processing. A total of 4 different models were obtained and the answers for the research questions were found. These models were compared under the same conditions and Agisoft reports were examined in detail. The differences between the models were determined with C2M distance technique in CloudCompare. As a result, Kyrenia Gate's 3D digital cultural heritage model was obtained, and the received data analysis has shown the technique was efficient for 3D digital documentation. 3D representation of Kyrenia Gate was obtained in PDF format.
History is a vital part of any community as it represents humanity's wealth. Further it provides assistance in apprehending each cultures ancestor. Cyprus is known for the many passing of different cultures. Consequently, with the use of digital technology preserving, reconstructing and analyzing sites has become possible. With the use of images, it has been made possible to understand, visualize, perceive and preserve the cultural heritage. The goal of the research was to develop a workflow and concept for 3D Modeling for 3D digital documentation of cultural heritage sites using terrestrial photogrammetry. Many requirements for the application of this technique have been examined and the ability to create a quality product with cheap, easy, fast and good methodology paved the way for the use of this technique. Based on this technique, the applicability of the 3D Image Vector tool when compared to the usage of the classical digital camera system while documenting and modeling cultural heritage in 3D format has been discovered. The data was composed of very high-quality accuracy images (mm range) with 80% image overlapping. The data processing part has been completed by the photogrammetric software package called Agisoft Metashape Pro. All settings were monitored in detail while 3D model was created and applied to the final stage of processing. A total of 4 different models were obtained and the answers for the research questions were found. These models were compared under the same conditions and Agisoft reports were examined in detail. The differences between the models were determined with C2M distance technique in CloudCompare. As a result, Kyrenia Gate's 3D digital cultural heritage model was obtained, and the received data analysis has shown the technique was efficient for 3D digital documentation. 3D representation of Kyrenia Gate was obtained in PDF format.
Impacts of climatic oscillations on precipitation in an extended mediterranean area
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc
Kurzfassung/Abstract
Oceanic-atmospheric oscillation patterns, described by so-called climate modes, have a strong impact on the variability in the terrestrial water cycle. However, the relation between climatic oscillations and hydrology is not yet fully understood due to uncertainties in the observations and the co-varying behavior of multiple oscillations. A better knowledge about these connections is needed to provide better predictions about climate and hydrology. In this study, the impact of 17 major climate modes on monthly precipitation anomalies in an extended Mediterranean area between 28.5N - 56.5N and 10W - 46E is analyzed. The climate modes are expressed through their corresponding Climate Oscillation Index (COI), used to describe the state of the atmospheric-oceanic circulations. A supervised learning approach, called least absolute shrinkage and selection operator (LASSO) regression is used to quantify the in frequence of these teleconnection patterns (e.g., North Atlantic Oscillation, East Atlantic West Russia Pattern) on precipitation anomalies. Precipitation is an important component of the hydrological cycle and one of the most dominant climatic drivers for water availability besides potential evaporation. The LASSO regression is a data-driven method that uses automatic feature selection and regularization, which in this study is used, to identify oceanic-atmospheric controls on precipitation anomalies and to disentangle the impact of individual climate modes. The methodology considers cross-correlations in the features, i.e. Climate Oscillation Indices. Time lags ranging between zero and five months are introduced in every feature to account for potential lagged response of precipitation anomalies to ocean-atmospheric oscillations. The LASSO model is fitted for each grid point in two ways. Once, by only using the time series of the grid point and additionally by adding the information of the eight neighboring grid points. Besides using all months of the year to build the model, the analysis is also performed for each season separately. Both of these steps increase the coefficient of determination R2 derived from the LASSO regression and therefore improve the predictive performance of the LASSO model. For validation of the regression models two cross-validations and a significance test using the Benjamini-Hochberg procedure are applied. The results gained by the LASSO regression show that in specific hot spot regions up to 70% of the precipitation anomalies can be explained by the modes of climate variability. Adding the information of the neighborhood into the model increases the explained variance R2 significantly. Analyzing the influence of each COI shows that the signal of the East Atlantic Pattern (EA), East Atlantic West Russia Pattern (EAWR), Northern Annular Mode (NAM), and North Atlantic Oscillation (NAO) have a significant impact in the western parts of the investigated area during wintertime. These results help to improve the general understanding of how the individual climate modes affect different parts of the extended Mediterranean area.
Oceanic-atmospheric oscillation patterns, described by so-called climate modes, have a strong impact on the variability in the terrestrial water cycle. However, the relation between climatic oscillations and hydrology is not yet fully understood due to uncertainties in the observations and the co-varying behavior of multiple oscillations. A better knowledge about these connections is needed to provide better predictions about climate and hydrology. In this study, the impact of 17 major climate modes on monthly precipitation anomalies in an extended Mediterranean area between 28.5N - 56.5N and 10W - 46E is analyzed. The climate modes are expressed through their corresponding Climate Oscillation Index (COI), used to describe the state of the atmospheric-oceanic circulations. A supervised learning approach, called least absolute shrinkage and selection operator (LASSO) regression is used to quantify the in frequence of these teleconnection patterns (e.g., North Atlantic Oscillation, East Atlantic West Russia Pattern) on precipitation anomalies. Precipitation is an important component of the hydrological cycle and one of the most dominant climatic drivers for water availability besides potential evaporation. The LASSO regression is a data-driven method that uses automatic feature selection and regularization, which in this study is used, to identify oceanic-atmospheric controls on precipitation anomalies and to disentangle the impact of individual climate modes. The methodology considers cross-correlations in the features, i.e. Climate Oscillation Indices. Time lags ranging between zero and five months are introduced in every feature to account for potential lagged response of precipitation anomalies to ocean-atmospheric oscillations. The LASSO model is fitted for each grid point in two ways. Once, by only using the time series of the grid point and additionally by adding the information of the eight neighboring grid points. Besides using all months of the year to build the model, the analysis is also performed for each season separately. Both of these steps increase the coefficient of determination R2 derived from the LASSO regression and therefore improve the predictive performance of the LASSO model. For validation of the regression models two cross-validations and a significance test using the Benjamini-Hochberg procedure are applied. The results gained by the LASSO regression show that in specific hot spot regions up to 70% of the precipitation anomalies can be explained by the modes of climate variability. Adding the information of the neighborhood into the model increases the explained variance R2 significantly. Analyzing the influence of each COI shows that the signal of the East Atlantic Pattern (EA), East Atlantic West Russia Pattern (EAWR), Northern Annular Mode (NAM), and North Atlantic Oscillation (NAO) have a significant impact in the western parts of the investigated area during wintertime. These results help to improve the general understanding of how the individual climate modes affect different parts of the extended Mediterranean area.
Comparison of Selected Segmentation Algorithms of 3D Point Clouds
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Dr. Johannes Otepka-Schremmer
Kurzfassung/Abstract
Segmentation is an important step in the processing pipeline of 3D point clouds. It can be used to identify and extract individual objects or build the base for a subsequent classification. Within this work two methods, so far mainly used in the field of computer vision, are extended to the segmentation of 3D point clouds. The first method, based on the minimum spanning tree of the neighborhood connectivity graph, shows promising properties enabling segmentation on an object-based level. The second method, SLIC (Super Linear Iterative Clustering), is designed to create a strong oversegmentation which can be used to reduce the amount of data in the first place. To evaluate both approaches a new metric, termed completeness, is introduced. In contrast to other commonly used metrics like the number of segments or mean segment size, completeness measures the quality of the segmentation with respect to individual objects. The investigated datasets represent different scenes (urban/rural), show different point densities and contain objects of different size, shape and color. All conducted tests show that both approaches are suitable for the segmentation of 3D point clouds. While the graph-based method improves segmentation in inhomogeneous regions, SLIC is an useful option for point clouds with higher point densities. Particularly their combination seems to be an interesting option for the segmentation of more complex scenes.
Segmentation is an important step in the processing pipeline of 3D point clouds. It can be used to identify and extract individual objects or build the base for a subsequent classification. Within this work two methods, so far mainly used in the field of computer vision, are extended to the segmentation of 3D point clouds. The first method, based on the minimum spanning tree of the neighborhood connectivity graph, shows promising properties enabling segmentation on an object-based level. The second method, SLIC (Super Linear Iterative Clustering), is designed to create a strong oversegmentation which can be used to reduce the amount of data in the first place. To evaluate both approaches a new metric, termed completeness, is introduced. In contrast to other commonly used metrics like the number of segments or mean segment size, completeness measures the quality of the segmentation with respect to individual objects. The investigated datasets represent different scenes (urban/rural), show different point densities and contain objects of different size, shape and color. All conducted tests show that both approaches are suitable for the segmentation of 3D point clouds. While the graph-based method improves segmentation in inhomogeneous regions, SLIC is an useful option for point clouds with higher point densities. Particularly their combination seems to be an interesting option for the segmentation of more complex scenes.
Electrical imaging for cave detection: numerical and field studies
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2019
Betreuer: Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
Within the scope of this diploma thesis, the imaging geophysical methods Electrical Resistivity Tomography (ERT) and Ground Penetrating Radar (GPR) were carried out to detect nearsurface cavities in two areas. The areas under investigation are located south-west of Lunz am See in the Northern Calcareous Alps and include two caves, the Stiegengraben-Wasserhöhle and the Forststraßeneinbruch. The Stiegengraben-Wasserhöhle has a length of 1 km and was buried with gravel in the 1970s during the construction of a forest road. Here, it is feared that the water pressure will mobilize the unconsolidated material by clogging the episodically active source cave, resulting in a debris-flow and endangering the houses in the valley below. The goal of the geophysical survey was to identify the exact location of the former cave entrance. Both geophysical methods (GPR and ERT) were able to locate the entrance of the Stiegengraben-Wasserhöhle. In addition, the ERT pictures show that probably already larger amounts of sediment and/or water hace accumulated in the entrance hall of the Stiegengraben-Wasserhöhle. The Forststraßeneinbruch was first mentioned in December 2016 due to a hole in a forest road. The purpose of this geophysical survey was to verify that the known cavities of the Forststraßeneinbruch are detectable by geophysical methods. It was also possible to search for additional cavities close to the surface, areas which are threatened by a collapse on the forest road as well. With one exception, the ERT images show clear contrasts in the physical properties of the subsoil, where known cavities are present. By modelling the known cave parts it was shown that these correspond very well with the anomalies of the ERT images. In two areas, however, very high contrasts were found, although no corresponding chamber of the Forststraßeneinbruch is known yet. This might give a hint to the existence of additional, yet unknown cavities.
Within the scope of this diploma thesis, the imaging geophysical methods Electrical Resistivity Tomography (ERT) and Ground Penetrating Radar (GPR) were carried out to detect nearsurface cavities in two areas. The areas under investigation are located south-west of Lunz am See in the Northern Calcareous Alps and include two caves, the Stiegengraben-Wasserhöhle and the Forststraßeneinbruch. The Stiegengraben-Wasserhöhle has a length of 1 km and was buried with gravel in the 1970s during the construction of a forest road. Here, it is feared that the water pressure will mobilize the unconsolidated material by clogging the episodically active source cave, resulting in a debris-flow and endangering the houses in the valley below. The goal of the geophysical survey was to identify the exact location of the former cave entrance. Both geophysical methods (GPR and ERT) were able to locate the entrance of the Stiegengraben-Wasserhöhle. In addition, the ERT pictures show that probably already larger amounts of sediment and/or water hace accumulated in the entrance hall of the Stiegengraben-Wasserhöhle. The Forststraßeneinbruch was first mentioned in December 2016 due to a hole in a forest road. The purpose of this geophysical survey was to verify that the known cavities of the Forststraßeneinbruch are detectable by geophysical methods. It was also possible to search for additional cavities close to the surface, areas which are threatened by a collapse on the forest road as well. With one exception, the ERT images show clear contrasts in the physical properties of the subsoil, where known cavities are present. By modelling the known cave parts it was shown that these correspond very well with the anomalies of the ERT images. In two areas, however, very high contrasts were found, although no corresponding chamber of the Forststraßeneinbruch is known yet. This might give a hint to the existence of additional, yet unknown cavities.
Classification of satellite images by including spectral and textural information
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2019
Betreuer: Ao.Univ.Prof.i.R. Dipl.-Ing. Dr. Josef Jansa, Dipl.-Ing. Dr. Camillo Ressl
Kurzfassung/Abstract
With the advance in sensor technology in the field of remote sensing from space, new challenges emerge. The high-resolution images offer a wide range of new applications, but at the same pace, the interpretation requires new approaches, from pure spectral interpretation to a more holistic one. This thesis focuses only on a small aspect of that sort of interpretation and on one specific application, which has been gaining increasing importance nowadays, where the carbon dioxide balance has become an issue. Forests are important CO2 sinks, and therefore, it makes sense to concentrate on the interpretation of forest stands, in this case in the area of central Europe. Thus, the principal objective of this investigation is to focus on forest classification and to interpret different types of forest stands in high-resolution satellite images. The used images have been captured by Pléiades 1B satellites, whose spatial resolution provides quite good textural information, which may be utilized to distinguish between different types of forest patches. Together with the spectral information, one may expect even an improvement of the classification quality compared to the interpretation of sole multispectral object properties. Therefore, this research concentrates on assessing standard strategies for image classification if the spectral and textural information is to be taken into consideration. The key for characterizing texture in forest areas was found in using a set of Haralick textural features known already for many decades, therefore for the special purpose a thorough investigation of generating suitable textural features has been carried out and their properties have been studied. One of the standard classification algorithms in remote sensing is the Maximum Likelihood classification. The question arises of course, whether the Maximum Likelihood classification would be appropriate enough for the textural classification. Therefore, the distribution of the classes in the feature space for the textural parameters has been investigated and then the decision has been made to use the Maximum Likelihood for classifying the multispectral as well as for textural parameters, from which Mean, Contrast, and Entropy delivered promising results, which have proved of value in previous research with other satellite data. Further, the quality assessment of the data has been made, where the resulted accuracies are quite high, around 80%, and lie in the expected range, although a significant improvement by including textural features cannot be observed. In the frame of these investigations, commercial software (ENVI Image Analysis (the Environment for Visualizing Images)), open source products, and a few other minor tools have been used for visualization, analysis, and processing, besides own software developments. There are still a few open issues for future work, whose investigation would have exceeded the effort for a diploma thesis, in particular, the influence of combining various Haralick features and of varying the parameters for their generation.
With the advance in sensor technology in the field of remote sensing from space, new challenges emerge. The high-resolution images offer a wide range of new applications, but at the same pace, the interpretation requires new approaches, from pure spectral interpretation to a more holistic one. This thesis focuses only on a small aspect of that sort of interpretation and on one specific application, which has been gaining increasing importance nowadays, where the carbon dioxide balance has become an issue. Forests are important CO2 sinks, and therefore, it makes sense to concentrate on the interpretation of forest stands, in this case in the area of central Europe. Thus, the principal objective of this investigation is to focus on forest classification and to interpret different types of forest stands in high-resolution satellite images. The used images have been captured by Pléiades 1B satellites, whose spatial resolution provides quite good textural information, which may be utilized to distinguish between different types of forest patches. Together with the spectral information, one may expect even an improvement of the classification quality compared to the interpretation of sole multispectral object properties. Therefore, this research concentrates on assessing standard strategies for image classification if the spectral and textural information is to be taken into consideration. The key for characterizing texture in forest areas was found in using a set of Haralick textural features known already for many decades, therefore for the special purpose a thorough investigation of generating suitable textural features has been carried out and their properties have been studied. One of the standard classification algorithms in remote sensing is the Maximum Likelihood classification. The question arises of course, whether the Maximum Likelihood classification would be appropriate enough for the textural classification. Therefore, the distribution of the classes in the feature space for the textural parameters has been investigated and then the decision has been made to use the Maximum Likelihood for classifying the multispectral as well as for textural parameters, from which Mean, Contrast, and Entropy delivered promising results, which have proved of value in previous research with other satellite data. Further, the quality assessment of the data has been made, where the resulted accuracies are quite high, around 80%, and lie in the expected range, although a significant improvement by including textural features cannot be observed. In the frame of these investigations, commercial software (ENVI Image Analysis (the Environment for Visualizing Images)), open source products, and a few other minor tools have been used for visualization, analysis, and processing, besides own software developments. There are still a few open issues for future work, whose investigation would have exceeded the effort for a diploma thesis, in particular, the influence of combining various Haralick features and of varying the parameters for their generation.
Evaluating geo-tagged Twitter Data to analyse Tourist Flows in Styria
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2019
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Im Rahmen dieser Masterarbeit wurde eine breite Auswahl an Analysen implementiert, um die Plausibilität und Eignung von Twitter-Daten in Bezug auf statistische, räumliche und semantische Aspekte zu überprüfen. Nur aufgrund der Möglichkeit, räumlich verortete Twitter-Daten zu erfassen, können Untersuchungen durchgeführt werden, die sich auf eine bestimmte räumliche Skala oder eine bestimmte Region beziehen. Wir fokussierten uns auf eine sehr feine räumliche Skala und zwar auf das Bundesland Steiermark in Österreich. Die Daten wurden mit Twitterscraper API auf Gemeindeebene erfasst und auf Bezirksebene ausgewertet. Extrahierte Tweets im Zeitraum von 2008 bis Mitte 2018 wurden gespeichert und einem umfangreichen Filterprozess in der NoSQL-Datenbank MongoDB unterzogen. 80% des Datensatzes wurden bei der Ermittlung von Tourismus relevanten Tweets herausgefiltert. Als Hauptimplementierungen innerhalb dieser Arbeit zählen räumlich-zeitliche und semantische Analysen. Die Hotspot-Analyse und die Kern density estimation Methode dienten zur Untersuchung der räumlichen Verteilung und zur Identifikation von räumlichen Clustern. Die abschließende Bewertung basiert auf der Korrelation der Menge der extrahierten Tweets in den Jahren von 2008 bis 2017 in der Steiermark sowie auf Bezirksebene unter Betrachtung der ganzjährigen Entwicklung, der Winter- und Sommersaison. Statistisch signifikante Korrelationen zwischen unseren Daten und den Referenzdaten bestätigten den Zusammenhang zwischen diesen und somit den sinnvollen Nutzen von Twitter für Forschungen auf solch feiner räumlicher Skala für touristische Zwecke. Die Sentiment-Analyse wurde als zusätzlicher Wert für Twitter-Daten hinzugezogen, um die Meinungen der Nutzer über ihre touristischen Ziele zu betrachten. Daneben befassten wir uns sowohl mit der Nützlichkeit der offiziellen Twitter REST API als auch mit weiteren Text-Mining-Methoden.
Im Rahmen dieser Masterarbeit wurde eine breite Auswahl an Analysen implementiert, um die Plausibilität und Eignung von Twitter-Daten in Bezug auf statistische, räumliche und semantische Aspekte zu überprüfen. Nur aufgrund der Möglichkeit, räumlich verortete Twitter-Daten zu erfassen, können Untersuchungen durchgeführt werden, die sich auf eine bestimmte räumliche Skala oder eine bestimmte Region beziehen. Wir fokussierten uns auf eine sehr feine räumliche Skala und zwar auf das Bundesland Steiermark in Österreich. Die Daten wurden mit Twitterscraper API auf Gemeindeebene erfasst und auf Bezirksebene ausgewertet. Extrahierte Tweets im Zeitraum von 2008 bis Mitte 2018 wurden gespeichert und einem umfangreichen Filterprozess in der NoSQL-Datenbank MongoDB unterzogen. 80% des Datensatzes wurden bei der Ermittlung von Tourismus relevanten Tweets herausgefiltert. Als Hauptimplementierungen innerhalb dieser Arbeit zählen räumlich-zeitliche und semantische Analysen. Die Hotspot-Analyse und die Kern density estimation Methode dienten zur Untersuchung der räumlichen Verteilung und zur Identifikation von räumlichen Clustern. Die abschließende Bewertung basiert auf der Korrelation der Menge der extrahierten Tweets in den Jahren von 2008 bis 2017 in der Steiermark sowie auf Bezirksebene unter Betrachtung der ganzjährigen Entwicklung, der Winter- und Sommersaison. Statistisch signifikante Korrelationen zwischen unseren Daten und den Referenzdaten bestätigten den Zusammenhang zwischen diesen und somit den sinnvollen Nutzen von Twitter für Forschungen auf solch feiner räumlicher Skala für touristische Zwecke. Die Sentiment-Analyse wurde als zusätzlicher Wert für Twitter-Daten hinzugezogen, um die Meinungen der Nutzer über ihre touristischen Ziele zu betrachten. Daneben befassten wir uns sowohl mit der Nützlichkeit der offiziellen Twitter REST API als auch mit weiteren Text-Mining-Methoden.
VGI-Kartierung der Altstadt von L'Aquila/Italien mit OpenStreetMap
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2019
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil, Dr. Paolo Fogliaroni MSc
Kurzfassung/Abstract
Die digitalen Stadtpläne vieler kleiner bis mittelgroßer Städte in Europa sind bei näherer Betrachtung ungenau bzw. unvollständig. Ursachen dafür sind neben unzureichender, rudimentärer Kartierung die schnelle Änderung der Bestandssituation wie sie beispielsweise bei Wiederaufbauarbeiten nach Naturkatastrophen zur Tage tritt. Ein weiteres Problem stellt das Versagen von automatisierten Verfahren bei ungewöhnlichen Situationen dar, wie temporäre Einrichtungen (beispielsweise Baugerüste) im zu kartierenden Bereich. Die Folge ist, dass grundlegende Informationen wie Straßenverläufe, Grundrisse von Gebäuden, Adressen, Points of Interest falsch dargestellt werden oder schlichtweg nicht vorhanden sind. Dieser Umstand ist für die Anwohner wie Besucher einer Stadt ein nicht unerheblicher Nachteil und muss behoben werden. Anstatt einer klassischen Vermessung wurde der Versuch unternommen die Altstadt einer mittelgroßen Stadt durch eine Kombination aus VGI, Luftbildaufnahmen und bestehenden, alten Plänen zu kartieren. Dadurch sollten hohe Vermessungskosten und der damit verbundene Zeitaufwand reduziert werden. Der hohen Änderungsrate und der Präsenz außergewöhnlicher Situation wird durch VGI „direkt“ begegnet und eine möglichst aktuelle, zeitnahe Kartierung ermöglicht. Als Testgebiet für die praktische Durchführung wurde die Altstadt von von L‘Aquila / Italien gewählt. Auf Basis der in der Praxis gewonnen Erkenntnisse wurde ein Regelwerk nach dem Vorbild historischer Messinstruktionen für die VGI-Kartierung kleiner bis mittelgroßer Städte auf Basis von OpenStreetMap aufgestellt. Dadurch erhalten diese Kommunen und interessierte OpenStreetMap-Kartographen eine Anleitung und somit die Möglichkeit zur selbständigen, effizienten, qualitativ hochwertigen und kostengünstigen Kartierung.
Die digitalen Stadtpläne vieler kleiner bis mittelgroßer Städte in Europa sind bei näherer Betrachtung ungenau bzw. unvollständig. Ursachen dafür sind neben unzureichender, rudimentärer Kartierung die schnelle Änderung der Bestandssituation wie sie beispielsweise bei Wiederaufbauarbeiten nach Naturkatastrophen zur Tage tritt. Ein weiteres Problem stellt das Versagen von automatisierten Verfahren bei ungewöhnlichen Situationen dar, wie temporäre Einrichtungen (beispielsweise Baugerüste) im zu kartierenden Bereich. Die Folge ist, dass grundlegende Informationen wie Straßenverläufe, Grundrisse von Gebäuden, Adressen, Points of Interest falsch dargestellt werden oder schlichtweg nicht vorhanden sind. Dieser Umstand ist für die Anwohner wie Besucher einer Stadt ein nicht unerheblicher Nachteil und muss behoben werden. Anstatt einer klassischen Vermessung wurde der Versuch unternommen die Altstadt einer mittelgroßen Stadt durch eine Kombination aus VGI, Luftbildaufnahmen und bestehenden, alten Plänen zu kartieren. Dadurch sollten hohe Vermessungskosten und der damit verbundene Zeitaufwand reduziert werden. Der hohen Änderungsrate und der Präsenz außergewöhnlicher Situation wird durch VGI „direkt“ begegnet und eine möglichst aktuelle, zeitnahe Kartierung ermöglicht. Als Testgebiet für die praktische Durchführung wurde die Altstadt von von L‘Aquila / Italien gewählt. Auf Basis der in der Praxis gewonnen Erkenntnisse wurde ein Regelwerk nach dem Vorbild historischer Messinstruktionen für die VGI-Kartierung kleiner bis mittelgroßer Städte auf Basis von OpenStreetMap aufgestellt. Dadurch erhalten diese Kommunen und interessierte OpenStreetMap-Kartographen eine Anleitung und somit die Möglichkeit zur selbständigen, effizienten, qualitativ hochwertigen und kostengünstigen Kartierung.
Ableitung troposphärischer Signalverzögerungen aus kinematischen GNSS Beobachtungsdaten
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2019
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Jadre Maras
Kurzfassung/Abstract
Der räumlich und zeitlich sehr variable feuchte Anteil der Troposphäre hat einen wesentlichen Einfluss auf die Genauigkeit der satellitenbasierten Positionsbestimmung. Dieser Feuchtanteil stellt aber auch einen wesentlichen Parameter für heutige Wettervorhersagemodelle dar. Ziel der Arbeit war es zu testen, ob eine Schätzung der troposphärischen Verzögerung, aus Einfrequenzempfänger-Beobachtungsdaten möglich ist. Mit einer größeren Anzahl Messwerten, gewonnen aus kinematischen GNSS Daten könnte das derzeit vorhandene Netz an Vorhersagewerten verdichtet werden. Dafür wurden vorerst statische Datensätze untersucht, um die Qualität des geschätzten ZTD zu beurteilen und anschließend auf kinematische Daten zu erweitern. Bei der Untersuchung der statistischen Beobachtungsdaten hat sich herausgestellt, dass eine Schätzung des ZTD mit ausreichender Genauigkeit möglich ist. Im Verlauf der Arbeit hat sich jedoch gezeigt, dass eine Erweiterung auf kinematische Daten unter den gegebenen Bedingungen nicht möglich ist.
Der räumlich und zeitlich sehr variable feuchte Anteil der Troposphäre hat einen wesentlichen Einfluss auf die Genauigkeit der satellitenbasierten Positionsbestimmung. Dieser Feuchtanteil stellt aber auch einen wesentlichen Parameter für heutige Wettervorhersagemodelle dar. Ziel der Arbeit war es zu testen, ob eine Schätzung der troposphärischen Verzögerung, aus Einfrequenzempfänger-Beobachtungsdaten möglich ist. Mit einer größeren Anzahl Messwerten, gewonnen aus kinematischen GNSS Daten könnte das derzeit vorhandene Netz an Vorhersagewerten verdichtet werden. Dafür wurden vorerst statische Datensätze untersucht, um die Qualität des geschätzten ZTD zu beurteilen und anschließend auf kinematische Daten zu erweitern. Bei der Untersuchung der statistischen Beobachtungsdaten hat sich herausgestellt, dass eine Schätzung des ZTD mit ausreichender Genauigkeit möglich ist. Im Verlauf der Arbeit hat sich jedoch gezeigt, dass eine Erweiterung auf kinematische Daten unter den gegebenen Bedingungen nicht möglich ist.
Vergleich der Entwicklung des Katasters in Österreich und Südtirol seit 1919 – 100 Jahre danach
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2019
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Mit dem Jahr 2019 sind nun 100 Jahre vergangen, seit der altösterreichische Kataster für Südtirol im Jahr 1919 dem italienischen Staat übergeben worden ist. Nicht nur in Österreich ist der Kataster mit seiner Verbindung zum Grundbuch zum Kulturgut geworden, sondern auch in Südtirol spielt er eine wichtige Rolle. Durch das langjährige Bestehen und die ständigen Weiterentwicklungen erfüllt der moderne Kataster weitaus mehr Anforderungen, als anfänglich an ihn gestellt wurden. Aufgrund der gemeinsamen geschichtlichen Ausgangslage von Österreich und Südtirol sowie der gleichen Katastersysteme bis 1919 bietet sich ein Vergleich bestens an. Das Ziel dieser Arbeit besteht darin, die unterschiedlichen Entwicklungen und Parallelen zwischen dem österreichischen Kataster und dem Kataster in Südtirol aufzuzeigen und gegenüberzustellen. Daraus ergeben sich folgende Fragen, die mit dieser Diplomarbeit beantwortet werden: - Wie haben sich die beiden Katastersysteme im Laufe der letzten 100 Jahre weiterentwickelt und verändert? - Entwickeln sich die beiden Katastersysteme auseinander oder gibt es Parallelen zwischen ihnen? Diese Arbeit beginnt mit einem theoretischen Teil, welcher neben der Definition des Katasters auch seine Geschichte und seine Entwicklungen erläutert. Zusätzlich wird auch in das Thema des Grundbuches eingeführt, da dieses mit dem Kataster eng in Verbindung steht. Die Einführung wird sowohl für den Kataster und das Grundbuch in Österreich als auch für den Kataster und das Grundbuch in Südtirol gemacht. Dabei liegt der Schwerpunkt auf den Entwicklungen, die die beiden Katastersysteme nach 1919 bis zum heutigen Tag durchlaufen haben. Abschließend werden die beiden Katastersysteme miteinander verglichen und gegenübergestellt sowie Parallelen und unterschiedliche Entwicklungen herausgearbeitet.
Mit dem Jahr 2019 sind nun 100 Jahre vergangen, seit der altösterreichische Kataster für Südtirol im Jahr 1919 dem italienischen Staat übergeben worden ist. Nicht nur in Österreich ist der Kataster mit seiner Verbindung zum Grundbuch zum Kulturgut geworden, sondern auch in Südtirol spielt er eine wichtige Rolle. Durch das langjährige Bestehen und die ständigen Weiterentwicklungen erfüllt der moderne Kataster weitaus mehr Anforderungen, als anfänglich an ihn gestellt wurden. Aufgrund der gemeinsamen geschichtlichen Ausgangslage von Österreich und Südtirol sowie der gleichen Katastersysteme bis 1919 bietet sich ein Vergleich bestens an. Das Ziel dieser Arbeit besteht darin, die unterschiedlichen Entwicklungen und Parallelen zwischen dem österreichischen Kataster und dem Kataster in Südtirol aufzuzeigen und gegenüberzustellen. Daraus ergeben sich folgende Fragen, die mit dieser Diplomarbeit beantwortet werden: - Wie haben sich die beiden Katastersysteme im Laufe der letzten 100 Jahre weiterentwickelt und verändert? - Entwickeln sich die beiden Katastersysteme auseinander oder gibt es Parallelen zwischen ihnen? Diese Arbeit beginnt mit einem theoretischen Teil, welcher neben der Definition des Katasters auch seine Geschichte und seine Entwicklungen erläutert. Zusätzlich wird auch in das Thema des Grundbuches eingeführt, da dieses mit dem Kataster eng in Verbindung steht. Die Einführung wird sowohl für den Kataster und das Grundbuch in Österreich als auch für den Kataster und das Grundbuch in Südtirol gemacht. Dabei liegt der Schwerpunkt auf den Entwicklungen, die die beiden Katastersysteme nach 1919 bis zum heutigen Tag durchlaufen haben. Abschließend werden die beiden Katastersysteme miteinander verglichen und gegenübergestellt sowie Parallelen und unterschiedliche Entwicklungen herausgearbeitet.
Das Aktivitätsmuster Grazer Senioren in ihrem urbanen Umfeld
Institut für Geographie und Raumforschung, Karl Franzens Universität Graz, 2019
Betreuer: Mag. Dr. Josef Gspurning
Kurzfassung/Abstract
Mit Stand 2018 sind bereits mehr als 320.000 Menschen in der Steiermark über sechzig Jahre alt und in rund 10 Jahren wird sich bereits jeder dritte Einwohner in dieser Altersgruppe befinden. Der demografische Wandel, welcher die Basis der vorliegenden Untersuchung darstellt, verläuft - abhängig von der jeweiligen Region - sehr unterschiedlich. Während Klein- und Mittelstädte, sowie Suburbanisierungsgebiete immer größer werdende Bevölkerungszahlen verzeichnen, sind ländliche, periphere Gebiete teilweiße von starker Abwanderung betroffen. Dies hat nicht nur Konsequenzen für das Pensionssystem und das österreichische Sozialsystem, sondern auch für die Raumplanung und -entwicklung. Der Anteil an Senioren und Seniorinnen an der Wohnbevölkerung wird immer größer und räumliche Disparitäten nehmen ebenfalls immer mehr zu, was zu einer Polarisierung und Segregation führt und starke Auswirkungen auf die Bevölkerung und deren Struktur hat. Diese Problemstellung führte zur einer detaillierten Mobilitätserhebung von 30 Senioren und Seniorinnen in Graz mittels GPS-Trackern, Wegtagebüchern und Interviews. Die erhobenen Daten wurden anschließend mit sozio-demographischen Merkmalen (Alter, Geschlecht, etc.) und raumrelevanten Informationen, wie der Infrastruktur und öffentlichen Verkehrsmitteln verknüpft, um räumliche Zusammenhänge und Muster zu erkennen und zu analysieren. Als Untersuchungsgebiet wurden Teile der Stadt Graz, sowie der Bezirk Geidorf gewählt, in welchem der Anteil der über 60jährigen bereits bei über 23% liegt. Die demografische Entwicklung und die „Vergreisung“ der Stadt Graz dienen als Ausgangspunkt, um mittels GPS-Trackern und GIS-Analysen zu überprüfen, wann, wo, wie und in welchem Ausmaß Senioren in Graz mobil sind, welche Besonderheiten bei der technischen Umsetzung berücksichtigt werden müssen und inwieweit Analysen zum Mobilitätsmuster der Bewohner durchgeführt werden können.
Mit Stand 2018 sind bereits mehr als 320.000 Menschen in der Steiermark über sechzig Jahre alt und in rund 10 Jahren wird sich bereits jeder dritte Einwohner in dieser Altersgruppe befinden. Der demografische Wandel, welcher die Basis der vorliegenden Untersuchung darstellt, verläuft - abhängig von der jeweiligen Region - sehr unterschiedlich. Während Klein- und Mittelstädte, sowie Suburbanisierungsgebiete immer größer werdende Bevölkerungszahlen verzeichnen, sind ländliche, periphere Gebiete teilweiße von starker Abwanderung betroffen. Dies hat nicht nur Konsequenzen für das Pensionssystem und das österreichische Sozialsystem, sondern auch für die Raumplanung und -entwicklung. Der Anteil an Senioren und Seniorinnen an der Wohnbevölkerung wird immer größer und räumliche Disparitäten nehmen ebenfalls immer mehr zu, was zu einer Polarisierung und Segregation führt und starke Auswirkungen auf die Bevölkerung und deren Struktur hat. Diese Problemstellung führte zur einer detaillierten Mobilitätserhebung von 30 Senioren und Seniorinnen in Graz mittels GPS-Trackern, Wegtagebüchern und Interviews. Die erhobenen Daten wurden anschließend mit sozio-demographischen Merkmalen (Alter, Geschlecht, etc.) und raumrelevanten Informationen, wie der Infrastruktur und öffentlichen Verkehrsmitteln verknüpft, um räumliche Zusammenhänge und Muster zu erkennen und zu analysieren. Als Untersuchungsgebiet wurden Teile der Stadt Graz, sowie der Bezirk Geidorf gewählt, in welchem der Anteil der über 60jährigen bereits bei über 23% liegt. Die demografische Entwicklung und die „Vergreisung“ der Stadt Graz dienen als Ausgangspunkt, um mittels GPS-Trackern und GIS-Analysen zu überprüfen, wann, wo, wie und in welchem Ausmaß Senioren in Graz mobil sind, welche Besonderheiten bei der technischen Umsetzung berücksichtigt werden müssen und inwieweit Analysen zum Mobilitätsmuster der Bewohner durchgeführt werden können.
Monitoring Coastal Erosion in Arctic Regions with SAR Data
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2019
Betreuer: Privatdoz. Dipl.-Geograf Dr. Annett Bartsch
Kurzfassung/Abstract
The annual coastal erosion rates of Arctic coasts are among the highest in the world, and the rates are increasing because of climate change. Monitoring of these mass movements with optical images is challenging due to frequent cloud cover of the Arctic. Synthetic Aperture Radars (SAR) are barely affected by the atmosphere, but the commonly used interferometry methods are not effective for the rapidly changing Arctic coastline. Therefore researchers introduced a backscatter-threshold based method with high-resolution TerraSAR-X images. The aim of this study was to advance SAR data analysis for coastal erosion measurements. Therefore, this study applies threshold classification to a variety of Arctic SAR images. TerraSAR-X X-band, PALSAR and PALSAR-2 L-band, and Sentinel-1 C-band ellipsoid corrected images were analyzed. The images had spatial resolutions of 0.62 to 20 m and various polarizations. The thresholds were tested with and without filtering in study areas along the Yukon Coast, the Bykovsky Peninsula, and the Barents Sea Coast. The analysis showed only weak effects of the incidence angle on the backscatter. All sample distributions were modeled well with linear threshold functions. During the error assessment all steep coast test samples were classified correctly by the threshold functions (100% producer's accuracy). Misclassification of land and water occurred for all threshold functions. Overall, the threshold functions for filtered, co-polarized images had a slightly higher classification accuracy, with Kappa Coefficients between 83.52% and 99.84%. Misclassifications were mainly caused by wet snow, wide sand beaches, and infrastructure. The classification results were further used to calculate seasonal, annual, and multi-year coastline change rates. The coastline was identified based on steep cliff classifications or the border between water and land classifications. For regions near Kay Point on the Yukon Coast, the near-zero calculated seasonal and annual shoreline change rates matched optical indications that erosion processes are not active in that area. For the west coast of Herschel Island, erosion rates calculated based on steep cliff classifications matched results of previous studies and optical images. However, the erosion estimates from land-water boundary did not match well, probably because snow interfered with the land classification. The annual and multi-year land-water rates for a region at the Barents Seas Coast showed good accordance with previous estimates. A comparison between the annual and multi-annual results based on steep coast classifications showed overall the same coastline movement tendencies. Greater differences become apparent when the results are split into smaller areas, which could be because of the high uncertainty of the annual rates or changes of the erosion processes over the years. Annual results for same regions are similar but not identical because of high rate uncertainties and possibly small differences between the chosen transects and orbit parameters of the compared images.
The annual coastal erosion rates of Arctic coasts are among the highest in the world, and the rates are increasing because of climate change. Monitoring of these mass movements with optical images is challenging due to frequent cloud cover of the Arctic. Synthetic Aperture Radars (SAR) are barely affected by the atmosphere, but the commonly used interferometry methods are not effective for the rapidly changing Arctic coastline. Therefore researchers introduced a backscatter-threshold based method with high-resolution TerraSAR-X images. The aim of this study was to advance SAR data analysis for coastal erosion measurements. Therefore, this study applies threshold classification to a variety of Arctic SAR images. TerraSAR-X X-band, PALSAR and PALSAR-2 L-band, and Sentinel-1 C-band ellipsoid corrected images were analyzed. The images had spatial resolutions of 0.62 to 20 m and various polarizations. The thresholds were tested with and without filtering in study areas along the Yukon Coast, the Bykovsky Peninsula, and the Barents Sea Coast. The analysis showed only weak effects of the incidence angle on the backscatter. All sample distributions were modeled well with linear threshold functions. During the error assessment all steep coast test samples were classified correctly by the threshold functions (100% producer's accuracy). Misclassification of land and water occurred for all threshold functions. Overall, the threshold functions for filtered, co-polarized images had a slightly higher classification accuracy, with Kappa Coefficients between 83.52% and 99.84%. Misclassifications were mainly caused by wet snow, wide sand beaches, and infrastructure. The classification results were further used to calculate seasonal, annual, and multi-year coastline change rates. The coastline was identified based on steep cliff classifications or the border between water and land classifications. For regions near Kay Point on the Yukon Coast, the near-zero calculated seasonal and annual shoreline change rates matched optical indications that erosion processes are not active in that area. For the west coast of Herschel Island, erosion rates calculated based on steep cliff classifications matched results of previous studies and optical images. However, the erosion estimates from land-water boundary did not match well, probably because snow interfered with the land classification. The annual and multi-year land-water rates for a region at the Barents Seas Coast showed good accordance with previous estimates. A comparison between the annual and multi-annual results based on steep coast classifications showed overall the same coastline movement tendencies. Greater differences become apparent when the results are split into smaller areas, which could be because of the high uncertainty of the annual rates or changes of the erosion processes over the years. Annual results for same regions are similar but not identical because of high rate uncertainties and possibly small differences between the chosen transects and orbit parameters of the compared images.
Monitoring of Alpine Snow Conditions Using C-Band SAR
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Univ.Ass. Dipl.-Ing. Bernhard Bauer-Marschallinger
Kurzfassung/Abstract
The cryosphere is an essential part of the Earth's climate system, even more in the light of climate change actively impacting the extent of polar ice caps, glaciers and snow. Regions in interaction with these parts of the cryosphere must adapt to challenging conditions, as slight changes in temperature can have irreversible consequences. Informations about the state of a snow pack and ongoing processes within can be a valuable aid, e.g. for avalanche risk management, hydrological run-off models and tourism development. This thesis focuses on revealing connections between various snow parameters, e.g. grain size, snow height or snow wetness, and high-resolution C-band SAR backscatter from ESA's Sentinel missions. Water has a very significant effect in the C-band for different states of aggregation (e.g., solid, liquid) offering a profound physical basis for investigating these relationships in alpine areas with a vast variety of snow conditions. For this case study, an alpine region covering parts of North and South Tyrol, was chosen. Data was acquired for a timespan of over two years, from summer 2015 to autumn 2017. Well-known states of C-band backscatter like sigma naught, which can be related to backscatter from a unit area on ground, hinder a comparison with in-situ snow data due to the influence of different observation geometries. To overcome this, alternative representations of backscatter, like normalised backscatter, either being normalised by incidence angle or by performing a radiometric (terrain attending) normalisation, are presented in this work. In the former case, linear regression and a novel approach, the piecewise linear percentile slope method, which takes the backscatter distribution of each orbit into account, were used. C-band backscatter was not only analysed as a single band, but also by including cross-polarisation ratios and change detection benefiting from a new method for an automatic, pixel-based reference image selection. Overall, normalised backscatter by means of linear regression and VH polarisation appeared as the best setup, when correlating these data with in-situ snow measurements. Results were enhanced by spatial and temporal filtering of backscatter data leading to a partial increase in correlation by nearly 0.2. The most meaningful and consistent correlation of -0.64 was found with respect to maximum snow wetness, followed by air temperature (-0.59). Snow height was characterised by the highest correlation (0.67), but its significance is questionable. Concerning snow wetness, change detection performed best, when taking pixels at coldest conditions as reference values into account. Derived maps indicating wet and dry snow could offer useful information for run-off models and for determining fragile snow packs.
The cryosphere is an essential part of the Earth's climate system, even more in the light of climate change actively impacting the extent of polar ice caps, glaciers and snow. Regions in interaction with these parts of the cryosphere must adapt to challenging conditions, as slight changes in temperature can have irreversible consequences. Informations about the state of a snow pack and ongoing processes within can be a valuable aid, e.g. for avalanche risk management, hydrological run-off models and tourism development. This thesis focuses on revealing connections between various snow parameters, e.g. grain size, snow height or snow wetness, and high-resolution C-band SAR backscatter from ESA's Sentinel missions. Water has a very significant effect in the C-band for different states of aggregation (e.g., solid, liquid) offering a profound physical basis for investigating these relationships in alpine areas with a vast variety of snow conditions. For this case study, an alpine region covering parts of North and South Tyrol, was chosen. Data was acquired for a timespan of over two years, from summer 2015 to autumn 2017. Well-known states of C-band backscatter like sigma naught, which can be related to backscatter from a unit area on ground, hinder a comparison with in-situ snow data due to the influence of different observation geometries. To overcome this, alternative representations of backscatter, like normalised backscatter, either being normalised by incidence angle or by performing a radiometric (terrain attending) normalisation, are presented in this work. In the former case, linear regression and a novel approach, the piecewise linear percentile slope method, which takes the backscatter distribution of each orbit into account, were used. C-band backscatter was not only analysed as a single band, but also by including cross-polarisation ratios and change detection benefiting from a new method for an automatic, pixel-based reference image selection. Overall, normalised backscatter by means of linear regression and VH polarisation appeared as the best setup, when correlating these data with in-situ snow measurements. Results were enhanced by spatial and temporal filtering of backscatter data leading to a partial increase in correlation by nearly 0.2. The most meaningful and consistent correlation of -0.64 was found with respect to maximum snow wetness, followed by air temperature (-0.59). Snow height was characterised by the highest correlation (0.67), but its significance is questionable. Concerning snow wetness, change detection performed best, when taking pixels at coldest conditions as reference values into account. Derived maps indicating wet and dry snow could offer useful information for run-off models and for determining fragile snow packs.
Massenbewertung von Liegenschaften: ein Vergleich international verwendeter Verfahren
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2019
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Die Ergebnisse einer Analyse von unterschiedlichen internationalen Liegenschaftsbewertungssystemen und der Bewertungssituation in Österreich werden in dieser Arbeit vorgestellt. In Europa und international existieren eine Reihe von sowohl staatlichen, als auch privaten mehr oder weniger gut funktionierenden automatisierten Liegenschaftsbewertungssystemen. Vor allem das schwedische System, welches schon Jahrzehnte im Einsatz ist, hat sich als funktionell, marktwertkonform und anpassungsfähig für verschiedenste Anlassfälle der Liegenschaftsbewertung erwiesen. Es wurde deshalb auch von anderen Ländern als Vorbild übernommen (z.B. Slowenien). In Österreich dominieren zurzeit noch konventionelle, nicht-automatisierte Bewertungsmethoden. Sachverständige und staatliche Behörden arbeiten nach wie vor auf Basis von subjektiven, zeit- und kostenintensiven Bewertungen von einzelnen Liegenschaften. Lediglich gewisse Banken und wenige Private greifen bereits auf automatisierte Bewertungssysteme zurück. Die Entwicklung eines automatisierten Massenbewertungssystems wird vor allem von privaten Firmen vorangetrieben, wobei aus technischer und wirtschaftlicher Sicht ansprechende Systeme bereits vorhanden sind. Österreich verfügt über eine beträchtliche Anzahl von qualitativ hochwertigen Daten, die für eine Massenbewertung von Liegenschaften genutzt werden können. Die Daten werden sowohl von öffentlichen, als auch privaten Institutionen gesammelt und verwaltet. Schwierigkeiten ergeben sich bezüglich der Datentransparenz, der Zugänglichkeit, der unterschiedlichen Qualität, des Datenformats, der Vollständigkeit und der Aktualität von Daten. Die Diskussion einer praktischen Anwendung hat gezeigt, dass die Umlegung des schwedischen und slowenischen Modells auf österreichische Daten prinzipiell möglich wäre. Allerdings gibt es bei der vollständigen Umsetzung der Bewertung einige Probleme zu bewältigen. Neben dem Sammeln von Informationen über die jeweiligen Modelle, gestaltet sich der Zugang zu relevanten österreichischen Daten als ausgesprochen schwierig. Die Einführung eines staatlichen Massenbewertungssystems in Österreich würde nicht abzuweisende Vorteile mit sich bringen in wirtschaftlicher, als auch in sozialer Hinsicht. Erfolgreich angewandte Systeme wie z.B. jenes in Schweden müssten jedoch, was die Bewertungsmethoden, die Organisation und die Rechtslage betrifft, mit einem großen Kosten- und Verwaltungsaufwand für Österreich adaptiert werden.
Die Ergebnisse einer Analyse von unterschiedlichen internationalen Liegenschaftsbewertungssystemen und der Bewertungssituation in Österreich werden in dieser Arbeit vorgestellt. In Europa und international existieren eine Reihe von sowohl staatlichen, als auch privaten mehr oder weniger gut funktionierenden automatisierten Liegenschaftsbewertungssystemen. Vor allem das schwedische System, welches schon Jahrzehnte im Einsatz ist, hat sich als funktionell, marktwertkonform und anpassungsfähig für verschiedenste Anlassfälle der Liegenschaftsbewertung erwiesen. Es wurde deshalb auch von anderen Ländern als Vorbild übernommen (z.B. Slowenien). In Österreich dominieren zurzeit noch konventionelle, nicht-automatisierte Bewertungsmethoden. Sachverständige und staatliche Behörden arbeiten nach wie vor auf Basis von subjektiven, zeit- und kostenintensiven Bewertungen von einzelnen Liegenschaften. Lediglich gewisse Banken und wenige Private greifen bereits auf automatisierte Bewertungssysteme zurück. Die Entwicklung eines automatisierten Massenbewertungssystems wird vor allem von privaten Firmen vorangetrieben, wobei aus technischer und wirtschaftlicher Sicht ansprechende Systeme bereits vorhanden sind. Österreich verfügt über eine beträchtliche Anzahl von qualitativ hochwertigen Daten, die für eine Massenbewertung von Liegenschaften genutzt werden können. Die Daten werden sowohl von öffentlichen, als auch privaten Institutionen gesammelt und verwaltet. Schwierigkeiten ergeben sich bezüglich der Datentransparenz, der Zugänglichkeit, der unterschiedlichen Qualität, des Datenformats, der Vollständigkeit und der Aktualität von Daten. Die Diskussion einer praktischen Anwendung hat gezeigt, dass die Umlegung des schwedischen und slowenischen Modells auf österreichische Daten prinzipiell möglich wäre. Allerdings gibt es bei der vollständigen Umsetzung der Bewertung einige Probleme zu bewältigen. Neben dem Sammeln von Informationen über die jeweiligen Modelle, gestaltet sich der Zugang zu relevanten österreichischen Daten als ausgesprochen schwierig. Die Einführung eines staatlichen Massenbewertungssystems in Österreich würde nicht abzuweisende Vorteile mit sich bringen in wirtschaftlicher, als auch in sozialer Hinsicht. Erfolgreich angewandte Systeme wie z.B. jenes in Schweden müssten jedoch, was die Bewertungsmethoden, die Organisation und die Rechtslage betrifft, mit einem großen Kosten- und Verwaltungsaufwand für Österreich adaptiert werden.
Entwicklung der Verteilung des Grundeigentums zwischen Frauen und Männern: in der Katastralgemeinde Untermallebarn seit Einführung des modernen Grundbuches
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2019
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Thema dieser Masterarbeit ist die Verteilung des Grundeigentums von natürlichen Personen zwischen Frauen und Männern in der Katastralgemeinde Untermallebarn in Österreich. Zum Einen soll der heutige Stand diskutiert werden, zum Anderen die Entwicklung seit Einführung des modernen Grundbuches. Dafür wurden Daten aus dem Grundbuch, dem Parzellenprotokoll und den Kataster Stichtagsdaten an bestimmten Stichtagen erfasst. Diese Daten wurden für Grundstücke, sowie Anteile der Gesamtfläche des Katastralgebietes ausgewertet. Ausgewertet wurden: Alleineigentümerin, Alleineigentümer, mehrere Eigentümer/Innen. Zusätzlich wurde nach Benützungsarten getrennt ausgewertet. Alle Auswertungen wurden visualisiert und anschließend diskutiert. Zum Schluss wurden die wichtigsten Ergebnisse zusammengefasst.
Thema dieser Masterarbeit ist die Verteilung des Grundeigentums von natürlichen Personen zwischen Frauen und Männern in der Katastralgemeinde Untermallebarn in Österreich. Zum Einen soll der heutige Stand diskutiert werden, zum Anderen die Entwicklung seit Einführung des modernen Grundbuches. Dafür wurden Daten aus dem Grundbuch, dem Parzellenprotokoll und den Kataster Stichtagsdaten an bestimmten Stichtagen erfasst. Diese Daten wurden für Grundstücke, sowie Anteile der Gesamtfläche des Katastralgebietes ausgewertet. Ausgewertet wurden: Alleineigentümerin, Alleineigentümer, mehrere Eigentümer/Innen. Zusätzlich wurde nach Benützungsarten getrennt ausgewertet. Alle Auswertungen wurden visualisiert und anschließend diskutiert. Zum Schluss wurden die wichtigsten Ergebnisse zusammengefasst.
Open travel map
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Mag Dr. Georg Gartner
Kurzfassung/Abstract
The overwhelming touristic data collections currently available to any user is a problem of great concern nowadays. Due to the large amounts of information the user has to assess, the process of decision making became more and more time consuming and difficult to complete. In an attempt to overcome this issue, systems that effectively assist users by providing access to relevant information should be developed. With this purpose, there are several applications in the field of tourism that offer detailed travel guides, descriptions of points of interest and even allow users to create their own travel routes. The present thesis focuses on the development of a mobile location based service that assists users in creating and searching for travel routes, the OpenTravelMap platform. In contrast to other existing platforms, the OpenTravelMap platform not only provides tools that facilitate the process of route creation and route search, but also integrates features that aim to enhance these functionalities. These features refer to the connection with other platforms in order to access external resources and a context aware recommender system. The outcome of this thesis, the OpenTravelMap platform, aims to be a worthwhile contribution to the field of tourism in view of the benefits supplied to its users.
The overwhelming touristic data collections currently available to any user is a problem of great concern nowadays. Due to the large amounts of information the user has to assess, the process of decision making became more and more time consuming and difficult to complete. In an attempt to overcome this issue, systems that effectively assist users by providing access to relevant information should be developed. With this purpose, there are several applications in the field of tourism that offer detailed travel guides, descriptions of points of interest and even allow users to create their own travel routes. The present thesis focuses on the development of a mobile location based service that assists users in creating and searching for travel routes, the OpenTravelMap platform. In contrast to other existing platforms, the OpenTravelMap platform not only provides tools that facilitate the process of route creation and route search, but also integrates features that aim to enhance these functionalities. These features refer to the connection with other platforms in order to access external resources and a context aware recommender system. The outcome of this thesis, the OpenTravelMap platform, aims to be a worthwhile contribution to the field of tourism in view of the benefits supplied to its users.
Korrektur von strukturellen Inhomogenitäten im globalen ESA CCI Soil-Moisture-Datensatz (von multiplen Satelliten)
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc
Kurzfassung/Abstract
The ESA CCI Soil Moisture COMBINED product is a more than 40 year long data record on global soil moisture for climate studies and applications. It merges soil moisture observations derived from multiple active and passive satellite remote sensing instruments in the microwave domain. Differences in sensor characteristics (such as frequency or polarisation) can cause structural breaks in the product, which are not completely removed during the merging process. These artificially caused discontinuities can adversely affect studies using the long-term data set as they make changes in the observations unrepresentative of long-term changes in reality. Here we compare three adjustment methods in terms of reducing the number of detected breaks in the soil moisture record. We investigate their impact on the data with multiple validation metrics. Their potential (negative) influence is examined by comparing trends in the data before and after homogenisation. We find that all three presented methods can reduce the number of detected breaks in ESA CCI SM. Differences between the methods mainly concern their ability to handle inhomogeneities in variance. Evaluation of the corrected data shows limited impact of homogenisation in terms of quantitative validation metrics. Changes in soil moisture trends due to removing breaks are found in some areas. We find that break correction overall improves the already rather homogeneous data set while preserving its climate describing characteristics. Quantile Category Matching is identified as the preferred method in terms of correcting breaks in ESA CCI SM.
The ESA CCI Soil Moisture COMBINED product is a more than 40 year long data record on global soil moisture for climate studies and applications. It merges soil moisture observations derived from multiple active and passive satellite remote sensing instruments in the microwave domain. Differences in sensor characteristics (such as frequency or polarisation) can cause structural breaks in the product, which are not completely removed during the merging process. These artificially caused discontinuities can adversely affect studies using the long-term data set as they make changes in the observations unrepresentative of long-term changes in reality. Here we compare three adjustment methods in terms of reducing the number of detected breaks in the soil moisture record. We investigate their impact on the data with multiple validation metrics. Their potential (negative) influence is examined by comparing trends in the data before and after homogenisation. We find that all three presented methods can reduce the number of detected breaks in ESA CCI SM. Differences between the methods mainly concern their ability to handle inhomogeneities in variance. Evaluation of the corrected data shows limited impact of homogenisation in terms of quantitative validation metrics. Changes in soil moisture trends due to removing breaks are found in some areas. We find that break correction overall improves the already rather homogeneous data set while preserving its climate describing characteristics. Quantile Category Matching is identified as the preferred method in terms of correcting breaks in ESA CCI SM.
Beiträge zur kinematischen und dynamischen Kalibrierung eines Industrie-Roboterarmes
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.Ass. Dipl.-Ing. Sabine Horvath
Kurzfassung/Abstract
Bedingt durch ihre Interdisziplinarität ist die Ingenieurgeodäsie immer wieder mit neuen Anwendungen und Aufgaben gefordert. Getrieben durch Industrie 4.0 stellen Industrieroboter ein solches Betätigungsfeld dar, das erst in letzter Zeit entstanden ist und nun die Ingenieurgeodäten beschäftigt. Ziel dieser Arbeit ist es, eine Kalibrierung eines Roboterarmes durchzuführen, wobei ein Lasertracker als Referenz dient. Dazu wird ein mathematisches Modell des Roboterarmes benötigt, das anhand von Koordinatensystemen die Geometrie des Roboterarmes beschreibt. Es handelt sich dabei um ein parametrisches Modell, dessen Parameter mittels eines Schätzverfahrens, dass die Kalibrierung darstellt, bestimmt werden sollen. Zur Kalibrierung werden sowohl ein kinematisches als auch ein dynamisches Modell verwendet. Das kinematische Modell umfasst 33 Parameter, die die Geometrie des Roboterarmes sowie die Transformation zwischen Roboterarm und Lasertracker beschreiben. Das dynamische Modell stellt eine Erweiterung des kinematischen Modells dar, zusätzlich zu den Parametern des kinematischen Modells werden fünf Steifigkeitsparameter eingeführt. Eine Simulation zeigt, dass lineare Abhängigkeiten zwischen einigen Parametern auftreten, die durch die Geometrie des Roboterarmes bedingt sind. Durch eine Singulärwertzerlegung können vier Parameterpaare und zwei Parametertripel identifiziert werden, von denen jeweils nur ein Parameter im Ausgleichsverfahren bestimmt werden kann. Weiters kann durch die Simulation festgestellt werden, dass für die Kalibrierung eine zufällige Auswahl an Armstellungen des Roboterarmes äußerst wichtig ist, um die Anzahl der Korrelationen zwischen den Parametern gering zu halten. Bei der Durchführung der Kalibrierung zeigt der Globaltest, dass der Roboterarm nicht vollständig durch die aufgestellten Modelle repräsentiert werden kann, wobei das dynamische Modell bessere Werte erzielt. Auch durch einige weiterführende Untersuchungen können etwaige Modellschwächen nicht gefunden werden. Dennoch wurden im Zuge dieser Arbeit wichtige Erkenntnisse gewonnen und einige nützliche Nebenprodukte geschaffen, die sowohl für eine Optimierung der vorliegenden Kalibrierung als auch für Anwendungen abseits der Kalibrierung genutzt werden können.
Bedingt durch ihre Interdisziplinarität ist die Ingenieurgeodäsie immer wieder mit neuen Anwendungen und Aufgaben gefordert. Getrieben durch Industrie 4.0 stellen Industrieroboter ein solches Betätigungsfeld dar, das erst in letzter Zeit entstanden ist und nun die Ingenieurgeodäten beschäftigt. Ziel dieser Arbeit ist es, eine Kalibrierung eines Roboterarmes durchzuführen, wobei ein Lasertracker als Referenz dient. Dazu wird ein mathematisches Modell des Roboterarmes benötigt, das anhand von Koordinatensystemen die Geometrie des Roboterarmes beschreibt. Es handelt sich dabei um ein parametrisches Modell, dessen Parameter mittels eines Schätzverfahrens, dass die Kalibrierung darstellt, bestimmt werden sollen. Zur Kalibrierung werden sowohl ein kinematisches als auch ein dynamisches Modell verwendet. Das kinematische Modell umfasst 33 Parameter, die die Geometrie des Roboterarmes sowie die Transformation zwischen Roboterarm und Lasertracker beschreiben. Das dynamische Modell stellt eine Erweiterung des kinematischen Modells dar, zusätzlich zu den Parametern des kinematischen Modells werden fünf Steifigkeitsparameter eingeführt. Eine Simulation zeigt, dass lineare Abhängigkeiten zwischen einigen Parametern auftreten, die durch die Geometrie des Roboterarmes bedingt sind. Durch eine Singulärwertzerlegung können vier Parameterpaare und zwei Parametertripel identifiziert werden, von denen jeweils nur ein Parameter im Ausgleichsverfahren bestimmt werden kann. Weiters kann durch die Simulation festgestellt werden, dass für die Kalibrierung eine zufällige Auswahl an Armstellungen des Roboterarmes äußerst wichtig ist, um die Anzahl der Korrelationen zwischen den Parametern gering zu halten. Bei der Durchführung der Kalibrierung zeigt der Globaltest, dass der Roboterarm nicht vollständig durch die aufgestellten Modelle repräsentiert werden kann, wobei das dynamische Modell bessere Werte erzielt. Auch durch einige weiterführende Untersuchungen können etwaige Modellschwächen nicht gefunden werden. Dennoch wurden im Zuge dieser Arbeit wichtige Erkenntnisse gewonnen und einige nützliche Nebenprodukte geschaffen, die sowohl für eine Optimierung der vorliegenden Kalibrierung als auch für Anwendungen abseits der Kalibrierung genutzt werden können.
Building Information Modeling (BIM) im Bestand: Untersuchungen aus der Perspektive der Ingenieurgeodäsie
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Dipl.-Ing. Dr. Johannes Fabiankowitsch
Kurzfassung/Abstract
Building Information Modeling (BIM) ist in der Baubranche und somit auch in der Geodäsie ein relevantes Thema. Der Teilbereich BIM im Bestand, in welchem der Bestand aufgenommen und in ein digitales dreidimensionales Modell übertragen werden muss, wird in dieser Diplomarbeit aus der Perspektive der Ingenieurgeodäsie untersucht. Es wird zuerst auf das Grundkonzept von BIM und auf bestehende Literatur, welche sich mit BIM im Bestand beschäftigt, eingegangen. Im Rahmen dieser Ausarbeitung werden sowohl die Koordinatensysteme von den viel genutzten BIM Programmen Autodesk Revit und Allplan Nemetschek erörtert als auch ein Bezug mit der Koordinatensystem-Defintion des Industry Foundation Class (IFC) Formats hergestellt. Um das Thema BIM im Bestand nicht nur theoretisch, sondern auch praxisnahe untersuchen zu können, ist ein Abschnitt des Kraftwerks Simmering für die Modellierung, anhand von Bestandsdaten, ausgewählt worden. Es sind tachymetrisch vermessene Bestandsdaten der Wiener Netze für die Modellierung des digitalen dreidimensionalen Modells verwendet worden. Für die Modellierung ist der Fokus auf das Programm Autodesk Revit gelegt worden. Ein Vergleich hinsichtlich des Modellierungsvorgangs in einem anderen Programm ist mit Allplan Nemetschek angeführt. Zusätzlich ist eine Laserscan-Messung von zwei Teilen des Untersuchungsgebiet durchgeführt worden, um von den daraus entstandenen Punktwolken den sogenannten Scan2BIM Prozess analysieren zu können. Die Modellierung auf Basis der Punktwolken ist mit dem Plug-In FARO As-Built for Revit durchgeführt worden. Die verschiedenen Modellierungsvorgänge werden kritisch analysiert und die Modellgenauigkeit wird anhand der Level of Accuracy (LOA) Klassen, welche vom U.S.Institute of Buidling Documentation definiert worden sind, ermittelt.
Building Information Modeling (BIM) ist in der Baubranche und somit auch in der Geodäsie ein relevantes Thema. Der Teilbereich BIM im Bestand, in welchem der Bestand aufgenommen und in ein digitales dreidimensionales Modell übertragen werden muss, wird in dieser Diplomarbeit aus der Perspektive der Ingenieurgeodäsie untersucht. Es wird zuerst auf das Grundkonzept von BIM und auf bestehende Literatur, welche sich mit BIM im Bestand beschäftigt, eingegangen. Im Rahmen dieser Ausarbeitung werden sowohl die Koordinatensysteme von den viel genutzten BIM Programmen Autodesk Revit und Allplan Nemetschek erörtert als auch ein Bezug mit der Koordinatensystem-Defintion des Industry Foundation Class (IFC) Formats hergestellt. Um das Thema BIM im Bestand nicht nur theoretisch, sondern auch praxisnahe untersuchen zu können, ist ein Abschnitt des Kraftwerks Simmering für die Modellierung, anhand von Bestandsdaten, ausgewählt worden. Es sind tachymetrisch vermessene Bestandsdaten der Wiener Netze für die Modellierung des digitalen dreidimensionalen Modells verwendet worden. Für die Modellierung ist der Fokus auf das Programm Autodesk Revit gelegt worden. Ein Vergleich hinsichtlich des Modellierungsvorgangs in einem anderen Programm ist mit Allplan Nemetschek angeführt. Zusätzlich ist eine Laserscan-Messung von zwei Teilen des Untersuchungsgebiet durchgeführt worden, um von den daraus entstandenen Punktwolken den sogenannten Scan2BIM Prozess analysieren zu können. Die Modellierung auf Basis der Punktwolken ist mit dem Plug-In FARO As-Built for Revit durchgeführt worden. Die verschiedenen Modellierungsvorgänge werden kritisch analysiert und die Modellgenauigkeit wird anhand der Level of Accuracy (LOA) Klassen, welche vom U.S.Institute of Buidling Documentation definiert worden sind, ermittelt.
GIS als Analyse- und Visualisierungswerkzeug in der Vorbereitung von integrativen Tiefbausanierungsmaßnahmen, dargestellt am Beispiel der Landeshauptstadt Klagenfurt
Institut für Geographie und Raumforschung, Karl Franzens Universität Graz, 2019
Betreuer: Mag. Dr. Josef Gspurning
Kurzfassung/Abstract
Die technische Infrastruktur, bestehend aus Ver- und Entsorgungs- sowie Straßennetzen, ist maßgebend verantwortlich für die wirtschaftliche Entwicklung, Gesundheit und Wohlstand der Kommunen und ihrer Bevölkerung. Der Netzausbau ist im zentraleuropäischen Raum weitgehend abgeschlossen, daher verschiebt sich die Betreiberaufgabe hin zur Zustands-verbesserung und Werterhaltung der Infrastruktur. Eine Herausforderung im Infrastrukturmanagement birgt der große Planungsaufwand und die Ressourcenknappheit. Hierbei bietet die integrative Betrachtung des Planungsprozesses einen Lösungsweg. Mit dieser Methode können die räumliche Nähe der Infrastrukturnetze im unterirdischen Straßenraum und die damit einhergehenden Synergieeffekte genutzt werden. In dieser Arbeit wird eine Methode zur Koordinierung des Planungsprozesses von integrativen Tiefbausanierungsmaßnahmen beschrieben. Im Vordergrund steht die technische Umsetzung einer GIS gestützten Planungsmethode für Wasser-, Kanal- und Straßennetze. Es werden Streckenabschnitte identifiziert, an denen mehrere Infrastrukturelemente zeitgleich erneuert werden können, um so den Sanierungsprozess effizienter und effektiver zu gestalten. Hierzu werden Modelle zur Zustandsbewertung und -verschlechterung der Infrastrukturnetze sowie die Integration dieser beschrieben. Die Integration erfolgt mittels einer räumlichen Überlagerung der Einzelnetze und ermöglicht die Berechnung der Gesamtbewertung jedes Streckenabschnittes. Dies bildet die Basis der Planung integrativer Sanierungsmaßnahmen. Die beschriebene Methode wird anhand eines Praxisbeispiels umgesetzt. GIS ist hierbei ein wichtiges Planungs- und Analysewerkzeug, das in allen Bearbeitungsschritten, vom Datenmanagement bis zur Visualisierung der Ergebnisse, eingesetzt werden kann. Die Bildung der Schnittmengen unterschiedlicher Themenbereiche und die Herstellung räumlicher Beziehungen zwischen Umwelt, Landnutzung und Infrastruktur, ermöglicht die integrative Problemlösung.
Die technische Infrastruktur, bestehend aus Ver- und Entsorgungs- sowie Straßennetzen, ist maßgebend verantwortlich für die wirtschaftliche Entwicklung, Gesundheit und Wohlstand der Kommunen und ihrer Bevölkerung. Der Netzausbau ist im zentraleuropäischen Raum weitgehend abgeschlossen, daher verschiebt sich die Betreiberaufgabe hin zur Zustands-verbesserung und Werterhaltung der Infrastruktur. Eine Herausforderung im Infrastrukturmanagement birgt der große Planungsaufwand und die Ressourcenknappheit. Hierbei bietet die integrative Betrachtung des Planungsprozesses einen Lösungsweg. Mit dieser Methode können die räumliche Nähe der Infrastrukturnetze im unterirdischen Straßenraum und die damit einhergehenden Synergieeffekte genutzt werden. In dieser Arbeit wird eine Methode zur Koordinierung des Planungsprozesses von integrativen Tiefbausanierungsmaßnahmen beschrieben. Im Vordergrund steht die technische Umsetzung einer GIS gestützten Planungsmethode für Wasser-, Kanal- und Straßennetze. Es werden Streckenabschnitte identifiziert, an denen mehrere Infrastrukturelemente zeitgleich erneuert werden können, um so den Sanierungsprozess effizienter und effektiver zu gestalten. Hierzu werden Modelle zur Zustandsbewertung und -verschlechterung der Infrastrukturnetze sowie die Integration dieser beschrieben. Die Integration erfolgt mittels einer räumlichen Überlagerung der Einzelnetze und ermöglicht die Berechnung der Gesamtbewertung jedes Streckenabschnittes. Dies bildet die Basis der Planung integrativer Sanierungsmaßnahmen. Die beschriebene Methode wird anhand eines Praxisbeispiels umgesetzt. GIS ist hierbei ein wichtiges Planungs- und Analysewerkzeug, das in allen Bearbeitungsschritten, vom Datenmanagement bis zur Visualisierung der Ergebnisse, eingesetzt werden kann. Die Bildung der Schnittmengen unterschiedlicher Themenbereiche und die Herstellung räumlicher Beziehungen zwischen Umwelt, Landnutzung und Infrastruktur, ermöglicht die integrative Problemlösung.
Development of a multi-temporal phenological 3D model of vine of Geography and Environmental Studies
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten in Zusammenarbeit mit der University of New Mexico, Department of Geography and Environmental Studies , 2019
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders, Christopher D. Lippit, Phd, CMS-RS
Kurzfassung/Abstract
This thesis is concerned with the development of a multi-temporal phenological 3D model of vine. In viticulture, the estimation of yield has an important role as it helps vineyard managers to predict the beginning of the next growth stage of vines and to improve their vineyard management related decision making. To enable accurate prediction of a vineyard's yield, it is necessary to track the phenological stages of vines and corresponding parameters throughout a whole season. Traditional phenotypical data collection and yield estimation methods are based on direct visual and manual in-field data collection by viticulture experts. Such approaches are very time-consuming and rely on strategic selection of representative vines for each block in a vineyard. Hence, the goal of this research project is the development of a multi-temporal phenological 3D model of vine and a critical assessment which phenological stages of vine can be modelled by multi-scale photogrammetric methods in order to provide reliable key parameters for yield prediction. The applied approach will support vineyard managers to better estimate the amount of yield throughout the phenological stages of vines in their vineyards.
This thesis is concerned with the development of a multi-temporal phenological 3D model of vine. In viticulture, the estimation of yield has an important role as it helps vineyard managers to predict the beginning of the next growth stage of vines and to improve their vineyard management related decision making. To enable accurate prediction of a vineyard's yield, it is necessary to track the phenological stages of vines and corresponding parameters throughout a whole season. Traditional phenotypical data collection and yield estimation methods are based on direct visual and manual in-field data collection by viticulture experts. Such approaches are very time-consuming and rely on strategic selection of representative vines for each block in a vineyard. Hence, the goal of this research project is the development of a multi-temporal phenological 3D model of vine and a critical assessment which phenological stages of vine can be modelled by multi-scale photogrammetric methods in order to provide reliable key parameters for yield prediction. The applied approach will support vineyard managers to better estimate the amount of yield throughout the phenological stages of vines in their vineyards.
Zeitabhängige Darstellung der Lebenswege historischer Geodäten / Kartografen in einem Web-GIS
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2019
Betreuer: Ao.Univ.-Prof.i.R. Dr. tit.Univ.-Prof. Norbert Bartelme
Kurzfassung/Abstract
Bei der Entstehung neuer wissenschaftlicher Ansätze und der Weiterentwicklung des Wissensstandes spielten die Lebenswege von Wissenschaftlern und der damit verbundene mögliche Wissenstransfer seit jeher eine entscheidende Rolle. Ziel der vorliegenden Arbeit war es, eine Möglichkeit für die Darstellung der Lebenswege von Geodäten und Kartografen der Vergangenheit zu schaffen. Basierend auf einer Geodatenbank wurde ein Web-GIS erstellt. Zusätzlich wurden Formulare erzeugt, um Datensätze in die Geodatenbank einzupflegen. Um die Karte zu realisieren, wurden die Open Source-Werkzeuge 'Geoserver' und 'OpenLayers' eingesetzt. Durch Animation wurde eine Verbindung zwischen der geografischen Position und der zeitlichen Dimension geschaffen. Am Beispiel von Gerhard Mercator konnte gezeigt werden, dass die animierte Visualisierung in einem Web-GIS eine gute Möglichkeit zur Veranschaulichung eines Lebenswegs ist. Des Weiteren konnte es als taugliches Werkzeug für die Frage nach möglichen Treffen verschiedener Personen befunden werden.
Bei der Entstehung neuer wissenschaftlicher Ansätze und der Weiterentwicklung des Wissensstandes spielten die Lebenswege von Wissenschaftlern und der damit verbundene mögliche Wissenstransfer seit jeher eine entscheidende Rolle. Ziel der vorliegenden Arbeit war es, eine Möglichkeit für die Darstellung der Lebenswege von Geodäten und Kartografen der Vergangenheit zu schaffen. Basierend auf einer Geodatenbank wurde ein Web-GIS erstellt. Zusätzlich wurden Formulare erzeugt, um Datensätze in die Geodatenbank einzupflegen. Um die Karte zu realisieren, wurden die Open Source-Werkzeuge 'Geoserver' und 'OpenLayers' eingesetzt. Durch Animation wurde eine Verbindung zwischen der geografischen Position und der zeitlichen Dimension geschaffen. Am Beispiel von Gerhard Mercator konnte gezeigt werden, dass die animierte Visualisierung in einem Web-GIS eine gute Möglichkeit zur Veranschaulichung eines Lebenswegs ist. Des Weiteren konnte es als taugliches Werkzeug für die Frage nach möglichen Treffen verschiedener Personen befunden werden.
Integration of segmentation in point cloud classification
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Markus Pöchtrager
Kurzfassung/Abstract
High density point clouds of airborne laser scanning measurements can be used to identify several object classes as buildings, vegetation or water surface. Point cloud segmentation can support classification and further feature extraction considering that segments are logical groups of points belonging to the same object class. This thesis presents a segment-based classification method, in which depending on the point features and attributes in the pre-processing step, a segmentation algorithm is executed seven times on the point cloud in order to extract point clusters belonging to different classes. These parts are used as a training set for classifying vegetation, building roof and wall, ground, vehicle, water and power lines. It is aimed that these segments as incorporated in the classification process will provide results comparable with the state of the art. Airborne Laser Scanning (ALS) point cloud datasets from the Municipality of Vienna are used, in an area where all the classes of interest are present. The whole workflow was implemented in OPALS, a modular software developed from TU Wien with the purpose to process airborne laser scanning data. The developed approach shows high classification results (overall accuracy is 86.9 %) based on the manual classified dataset and an internal accuracy of 94.8 % of the training data. However, there are some limitations of the method in terms of robustness and universal applicability, which were detected when applying the trained model to the test data. This expresses the importance of calculating accurate point attributes and performing a proper segmentation and classification of the objects of interest.
High density point clouds of airborne laser scanning measurements can be used to identify several object classes as buildings, vegetation or water surface. Point cloud segmentation can support classification and further feature extraction considering that segments are logical groups of points belonging to the same object class. This thesis presents a segment-based classification method, in which depending on the point features and attributes in the pre-processing step, a segmentation algorithm is executed seven times on the point cloud in order to extract point clusters belonging to different classes. These parts are used as a training set for classifying vegetation, building roof and wall, ground, vehicle, water and power lines. It is aimed that these segments as incorporated in the classification process will provide results comparable with the state of the art. Airborne Laser Scanning (ALS) point cloud datasets from the Municipality of Vienna are used, in an area where all the classes of interest are present. The whole workflow was implemented in OPALS, a modular software developed from TU Wien with the purpose to process airborne laser scanning data. The developed approach shows high classification results (overall accuracy is 86.9 %) based on the manual classified dataset and an internal accuracy of 94.8 % of the training data. However, there are some limitations of the method in terms of robustness and universal applicability, which were detected when applying the trained model to the test data. This expresses the importance of calculating accurate point attributes and performing a proper segmentation and classification of the objects of interest.
Bestimmung von Kugelfunktionskoeffizienten zweiten Grades anhand der angepassten Euler-Liouville Gleichung
Institut für Geodäsie, Arbeitsgruppe Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2019
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr
Kurzfassung/Abstract
Im Kontext wissenschaftlicher Betrachtungen wird das Gravitationsfeld der Erde mithilfe von Koeffizienten, in Abhängigkeit zu Kugelflächenfunktionen, ermittelt. Diese wiederum können durch eine Vielzahl von unterschiedlichsten Methoden bestimmt werden. Die wechselseitige Beeinflussung von Gravitationsfeld und Erdrotationsachse wird anhand der Euler-Liouville Differentialgleichung beschrieben, welche die Bewegungsgleichung für die Rotation der dynamischen Erde darstellt. Als Ausgangspunkt der vorliegenden Arbeit wurde diese zur Simulation eines Erdrotationsvektors anhand numerischer Integration mit Startwertproblem verwendet. Um die Auswirkungen zeitlicher Differenzen zu bestimmen, wurde hierfür die numerische Ableitung der jeweiligen Einflussgrößen der Simulation entsprechend modifiziert und der Kugelflächenfunktionskoeffizient - anders als der reale und imaginäre Teil der Love'schen Zahl oder der Initial-Vektor der Erdrotation - monatlich bestimmt. Die so ermittelten Zuschläge des linearisierten Ausgleiches wurden daraufhin abermals mithilfe einer Lösung der SLR-Beobachtungen wissenschaftlich hinterfragt und diverse Ergebnisse möglicher Parameterkombinationen innerhalb der Schätzung einbezogen. Als Fazit wird festgehalten, dass aufgrund der konstanten Abweichungen zur Nullstelle von einer Bestimmung der monatlichen Zuschläge des jeweiligen Kosinus Koeffizienten nullter Ordnung (c20) wie auch der Kosinus und Sinus Koeffizient zweiter Ordnung (c22, s22) abzusehen ist. Ferner sind die dabei bestimmten Varianzen im Vergleich zur Referenz zu unspezifisch. Von den mithilfe des Erdrotationsvektors untersuchten Koeffizienten zeigen sich bei den tesseralen Koeffizienten (c21, s21) die besten Eigenschaften. Die in Kombination mit der Love'schen Zahl ermittelten Lösungen passen sich in Hinblick auf ihre Referenzkoeffizienten am besten an, gleichwohl die berechneten Differenzen des Koeffizienten s21 weniger prägnant ausfallen als jene von c21.
Im Kontext wissenschaftlicher Betrachtungen wird das Gravitationsfeld der Erde mithilfe von Koeffizienten, in Abhängigkeit zu Kugelflächenfunktionen, ermittelt. Diese wiederum können durch eine Vielzahl von unterschiedlichsten Methoden bestimmt werden. Die wechselseitige Beeinflussung von Gravitationsfeld und Erdrotationsachse wird anhand der Euler-Liouville Differentialgleichung beschrieben, welche die Bewegungsgleichung für die Rotation der dynamischen Erde darstellt. Als Ausgangspunkt der vorliegenden Arbeit wurde diese zur Simulation eines Erdrotationsvektors anhand numerischer Integration mit Startwertproblem verwendet. Um die Auswirkungen zeitlicher Differenzen zu bestimmen, wurde hierfür die numerische Ableitung der jeweiligen Einflussgrößen der Simulation entsprechend modifiziert und der Kugelflächenfunktionskoeffizient - anders als der reale und imaginäre Teil der Love'schen Zahl oder der Initial-Vektor der Erdrotation - monatlich bestimmt. Die so ermittelten Zuschläge des linearisierten Ausgleiches wurden daraufhin abermals mithilfe einer Lösung der SLR-Beobachtungen wissenschaftlich hinterfragt und diverse Ergebnisse möglicher Parameterkombinationen innerhalb der Schätzung einbezogen. Als Fazit wird festgehalten, dass aufgrund der konstanten Abweichungen zur Nullstelle von einer Bestimmung der monatlichen Zuschläge des jeweiligen Kosinus Koeffizienten nullter Ordnung (c20) wie auch der Kosinus und Sinus Koeffizient zweiter Ordnung (c22, s22) abzusehen ist. Ferner sind die dabei bestimmten Varianzen im Vergleich zur Referenz zu unspezifisch. Von den mithilfe des Erdrotationsvektors untersuchten Koeffizienten zeigen sich bei den tesseralen Koeffizienten (c21, s21) die besten Eigenschaften. Die in Kombination mit der Love'schen Zahl ermittelten Lösungen passen sich in Hinblick auf ihre Referenzkoeffizienten am besten an, gleichwohl die berechneten Differenzen des Koeffizienten s21 weniger prägnant ausfallen als jene von c21.
Fine-scale Analysis and Modeling of Urban Blight and Crime Applying Geospatial Technology
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten in Zusammenarbeit mit der Louisiana State University, 2019
Betreuer: Mag. Dr. Michael Leitner, MA, FH-Prof. Dr. Gernot Paulus
Kurzfassung/Abstract
Geoinfomationssysteme spielen eine wichtige Rolle in der räumlichen Kriminalitätsanalyse. Aktuelle Forschungsergebnisse zeigen, dass Kriminalität nicht homogen verteilt ist, sondern sich auf bestimmte Bereiche - sogenannte "Hot Spots" - konzentriert. Gemäß der "Broken Windows Theorie" können Anzeichen von Verwahrlosung wie zerbrochene Fenster, Graffiti oder Müll in einem Stadtviertel kriminelle Aktivitäten anziehen und nimmt die Angst für Kriminalität zu. Die Thematik des Stadtverfalls (Engl. "Urban blight") und der Zusammenhang mit Kriminalität wird häufig diskutiert und bedarf einer genaueren Datenerhebung. Ziel dieses Projekts ist es, neue interdisziplinäre Forschungsmethoden anzuwenden, um den städtischen Verfall und den Zusammenhang mit Kriminalitätsraten und Kriminalitätswahrnehmung auf einer Mikroebene in der Stadt Baton Rouge im US-Bundesstaat Louisiana zu untersuchen. Nach offiziellen Angaben des Straftatbestandes vom FBI wird Baton Rouge als eine der gewaltsamsten und gefährlichsten Städte der Vereinigten Staaten eingestuft. Innovative Geoinformationstechnologien wie "Spatial Video Technology", "Geo-Narratives" und "Sensor-Armbänder" sollen dabei helfen, Faktoren die zu hohen Kriminalitätsraten führen, zu identifizieren. Standardisierte Methoden sind erforderlich, um raumbezogene Daten zu erheben, zu verarbeiten und zu analysieren, damit die Ergebnisse für Langzeitforschung genutzt werden können. Qualitative und quantitative Daten werden in ausgewählten Nachbarschaften mit hohen, mittleren und niedrigen Kriminalitätsraten erfasst. Aus den gesammelten Daten werden Indikatoren für Stadtverfall und subjektive Kriminalitätswahrnehmung von Individuen extrahiert und in einem GIS-basierten Modell umgesetzt. Clustering-Methoden, räumliche (Auto)korrelation und Interpolationstechniken werden durchgeführt, um die Zusammenhänge zwischen visuellem Stadtverfall und tatsächlichen Kriminalitätsdaten zu untersuchen. Text-mining Techniken wie "self-organizing neural networks" werden eingesetzt, um subjektive Wahrnehmungen von Kriminalität zu erforschen. Die Ergebnisse deuten darauf hin, dass es einen positiven signifikanten Zusammenhang zwischen Stadtverfall und Kriminalität gibt. Dieser innovative "mixed methods" Forschungsansatz erlaubt eine völlig neue Sichtweise kriminalitätsbezogene Faktoren besser zu verstehen. Die vorgeschlagene Methodik kann in einem breiten Spektrum von Forschungsbereichen angewendet werden, um feinskalige Umweltmerkmale und menschliches Verhalten über Raum und Zeit zu bewerten.
Geoinfomationssysteme spielen eine wichtige Rolle in der räumlichen Kriminalitätsanalyse. Aktuelle Forschungsergebnisse zeigen, dass Kriminalität nicht homogen verteilt ist, sondern sich auf bestimmte Bereiche - sogenannte "Hot Spots" - konzentriert. Gemäß der "Broken Windows Theorie" können Anzeichen von Verwahrlosung wie zerbrochene Fenster, Graffiti oder Müll in einem Stadtviertel kriminelle Aktivitäten anziehen und nimmt die Angst für Kriminalität zu. Die Thematik des Stadtverfalls (Engl. "Urban blight") und der Zusammenhang mit Kriminalität wird häufig diskutiert und bedarf einer genaueren Datenerhebung. Ziel dieses Projekts ist es, neue interdisziplinäre Forschungsmethoden anzuwenden, um den städtischen Verfall und den Zusammenhang mit Kriminalitätsraten und Kriminalitätswahrnehmung auf einer Mikroebene in der Stadt Baton Rouge im US-Bundesstaat Louisiana zu untersuchen. Nach offiziellen Angaben des Straftatbestandes vom FBI wird Baton Rouge als eine der gewaltsamsten und gefährlichsten Städte der Vereinigten Staaten eingestuft. Innovative Geoinformationstechnologien wie "Spatial Video Technology", "Geo-Narratives" und "Sensor-Armbänder" sollen dabei helfen, Faktoren die zu hohen Kriminalitätsraten führen, zu identifizieren. Standardisierte Methoden sind erforderlich, um raumbezogene Daten zu erheben, zu verarbeiten und zu analysieren, damit die Ergebnisse für Langzeitforschung genutzt werden können. Qualitative und quantitative Daten werden in ausgewählten Nachbarschaften mit hohen, mittleren und niedrigen Kriminalitätsraten erfasst. Aus den gesammelten Daten werden Indikatoren für Stadtverfall und subjektive Kriminalitätswahrnehmung von Individuen extrahiert und in einem GIS-basierten Modell umgesetzt. Clustering-Methoden, räumliche (Auto)korrelation und Interpolationstechniken werden durchgeführt, um die Zusammenhänge zwischen visuellem Stadtverfall und tatsächlichen Kriminalitätsdaten zu untersuchen. Text-mining Techniken wie "self-organizing neural networks" werden eingesetzt, um subjektive Wahrnehmungen von Kriminalität zu erforschen. Die Ergebnisse deuten darauf hin, dass es einen positiven signifikanten Zusammenhang zwischen Stadtverfall und Kriminalität gibt. Dieser innovative "mixed methods" Forschungsansatz erlaubt eine völlig neue Sichtweise kriminalitätsbezogene Faktoren besser zu verstehen. Die vorgeschlagene Methodik kann in einem breiten Spektrum von Forschungsbereichen angewendet werden, um feinskalige Umweltmerkmale und menschliches Verhalten über Raum und Zeit zu bewerten.
"Non-Intrusive Drone-Based Flow Pattern Detection near Fish Passages at Hydropower Dams"
Studiengang Spatial Information Management, Fachhochschule Technikum Kärnten, 2019
Betreuer: FH-Prof. Dr. Gernot Paulus, FH-Prof. Dr. Karl-Heinrich Anders
Kurzfassung/Abstract
As a form of energy, electricity is of strategic importance for all industries, businesses and homes. The way we store and exchange information, share knowledge, automate production of goods, travel, grow crops, or provide medical help has changed. In Austria more than a half of all electricity is produced with the help of hydropower plants making this source of energy essential for the well-being of the country. Hydropower is a form of clean and renewable energy with numerous advantages over other energy sources. The production of hydropower, however, also has its trade-offs. One of them is the creation of obstacles for migratory fish species. Since environmental protection in Austria has a high priority, fish passages are being built at hydropower dams to enable upstream migration. An efficient fish passage is easy for fish to discover, which may depend, inter alia, on the flow pattern at the fish passage entrance. And though each fish passage is a subject to hydraulic modelling at the stage of its planning, there are hardly any studies of the actual flow patterns near fish passages derived from data collected in field conditions. This research explores the possibilities of Unmanned Aerial Systems (UAS or "drones") for the contactless measurement of surface flow velocities. Image velocimetry is used in order to empirically determine flow patterns near fish passages. It targets the development of a simple standardized methodology that can be applied on a regular basis for flow measurement near hydropower dams. The results of this research include suggestions considering data collection and processing workflow and examples of forms that can simplify documentation of data capture tasks. The software used for flow velocity calculation is tailored to specific project needs in order to address the necessity to deal with heterogeneous partially seeded flow flows. Flow patterns at one of the test sites are discussed in detail, including their comparison with reference measurements, visualised and made available in a selected exchange format. Validation of the image velocimetry results shows that the calculated velocity magnitude lies within 13% from the reference measurements on average, and that the direction of velocity vectors in the majority of cases is within 30° of the measured direction. Overall, the elaborated methodology provides an accurate assessment of heterogeneous flow patterns under seeded flow conditions.
As a form of energy, electricity is of strategic importance for all industries, businesses and homes. The way we store and exchange information, share knowledge, automate production of goods, travel, grow crops, or provide medical help has changed. In Austria more than a half of all electricity is produced with the help of hydropower plants making this source of energy essential for the well-being of the country. Hydropower is a form of clean and renewable energy with numerous advantages over other energy sources. The production of hydropower, however, also has its trade-offs. One of them is the creation of obstacles for migratory fish species. Since environmental protection in Austria has a high priority, fish passages are being built at hydropower dams to enable upstream migration. An efficient fish passage is easy for fish to discover, which may depend, inter alia, on the flow pattern at the fish passage entrance. And though each fish passage is a subject to hydraulic modelling at the stage of its planning, there are hardly any studies of the actual flow patterns near fish passages derived from data collected in field conditions. This research explores the possibilities of Unmanned Aerial Systems (UAS or "drones") for the contactless measurement of surface flow velocities. Image velocimetry is used in order to empirically determine flow patterns near fish passages. It targets the development of a simple standardized methodology that can be applied on a regular basis for flow measurement near hydropower dams. The results of this research include suggestions considering data collection and processing workflow and examples of forms that can simplify documentation of data capture tasks. The software used for flow velocity calculation is tailored to specific project needs in order to address the necessity to deal with heterogeneous partially seeded flow flows. Flow patterns at one of the test sites are discussed in detail, including their comparison with reference measurements, visualised and made available in a selected exchange format. Validation of the image velocimetry results shows that the calculated velocity magnitude lies within 13% from the reference measurements on average, and that the direction of velocity vectors in the majority of cases is within 30° of the measured direction. Overall, the elaborated methodology provides an accurate assessment of heterogeneous flow patterns under seeded flow conditions.
Simulationsstudien zur Verbesserung der Gierwinkelschätzung bei der losen INS-GNSS-Kopplung
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2019
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.-Ass. Dipl.-Ing. Tomas Thalmann
Kurzfassung/Abstract
Durch den Einzug von unbemannten Luftfahrzeugen (sog. UAVs) haben sich neue Möglichkeiten im Bereich der Landvermessung ergeben. UAVs ermöglichen es, schwerzugängliche und großflächige Bereiche, wie beispielsweise Küsten, Flüsse, Brücken etc., zeit- und kostensparend zu erfassen. Georeferenzierte Punktwolken sind das Ergebnis solcher Befliegungen, die im nächsten Schritt zur Informationsextraktion bearbeitet werden. Die Georeferenzierung der Punktwolke erfolgt dabei über die Verknüpfung der rohen Punktwolke mit der Pose des UAVs. Die Posenbestimmung des UAVs erfolgt üblicherweise durch eine INS/GNSS-Integration, wobei die GNSS-Beobachtungen den Drift der inertialen Navigationslösung abfangen und die inertiale Navigationslösung das GNSS-Beobachtungsrauschen glätten soll. Aus Publikationen geht hervor, dass sensorspezifische Fehler und Flugmanöver die Posenbestimmung maßgeblich beeinflussen. Die detaillierte Analyse dieser Einflüsse wird im Rahmen dieser Arbeit erläutert mit dem Ziel, Verbesserungsvorschläge im Hinblick auf die Gierwinkelschätzung zu erarbeiten. Hierzu wurde eigens eine Simulationsumgebung implementiert. Anhand der Simulationen lässt sich die Problematik des Drifts der inertialen Navigationslösung und der Beobachtbarkeit des Gierwinkels reproduzieren. Des Weiteren zeigen die Simulationsergebnisse, dass horizontale Beschleunigungsänderungen die Beobachtbarkeit des Gierwinkel-Fehlerzustandes steigern und somit der Drift des Gierwinkels über die Dauer der Beschleunigungsänderungen entscheidend reduziert werden kann.
Durch den Einzug von unbemannten Luftfahrzeugen (sog. UAVs) haben sich neue Möglichkeiten im Bereich der Landvermessung ergeben. UAVs ermöglichen es, schwerzugängliche und großflächige Bereiche, wie beispielsweise Küsten, Flüsse, Brücken etc., zeit- und kostensparend zu erfassen. Georeferenzierte Punktwolken sind das Ergebnis solcher Befliegungen, die im nächsten Schritt zur Informationsextraktion bearbeitet werden. Die Georeferenzierung der Punktwolke erfolgt dabei über die Verknüpfung der rohen Punktwolke mit der Pose des UAVs. Die Posenbestimmung des UAVs erfolgt üblicherweise durch eine INS/GNSS-Integration, wobei die GNSS-Beobachtungen den Drift der inertialen Navigationslösung abfangen und die inertiale Navigationslösung das GNSS-Beobachtungsrauschen glätten soll. Aus Publikationen geht hervor, dass sensorspezifische Fehler und Flugmanöver die Posenbestimmung maßgeblich beeinflussen. Die detaillierte Analyse dieser Einflüsse wird im Rahmen dieser Arbeit erläutert mit dem Ziel, Verbesserungsvorschläge im Hinblick auf die Gierwinkelschätzung zu erarbeiten. Hierzu wurde eigens eine Simulationsumgebung implementiert. Anhand der Simulationen lässt sich die Problematik des Drifts der inertialen Navigationslösung und der Beobachtbarkeit des Gierwinkels reproduzieren. Des Weiteren zeigen die Simulationsergebnisse, dass horizontale Beschleunigungsänderungen die Beobachtbarkeit des Gierwinkel-Fehlerzustandes steigern und somit der Drift des Gierwinkels über die Dauer der Beschleunigungsänderungen entscheidend reduziert werden kann.
Beurteilung der Eignung von Faser Bragg Gittern zur dynamischen Überwachung von großen mechanischen Strukturen anhand der Analyse der Messdaten eines Fährschiffs
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2019
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Faser Bragg Gitter (FBG) ermöglichen die hochfrequente, quasi-verteilte Erfassung von Dehnungen. Dabei handelt es sich um eine nur wenige Millimeter lange Mikrostruktur, welche bereits während der Produktion der Glasfaser am Ziehturm mit Hilfe einer Phasenmaske in den Faserkern eingeschrieben wird. Diese erzeugt eine periodische Änderung des Brechungsindex des Glasfaserkerns in diesem Bereich. Durch Beleuchten des FBG mit einer breitbandigen Lichtquelle wird eine spezifische Wellenlänge reflektiert. Somit bietet dieses Messverfahren die Möglichkeit mehrere FBG Sensoren entlang einer einzelnen Faser anzuordnen und zu unterscheiden. Einwirkungen, wie Temperaturänderung und Deformation, am FBG führen zu Wellenlängenänderungen, welche im Interrogator aufgezeichnet werden. Diese können in weiterer Folge in Dehnungen umgerechnet werden. Aus den erfassten Dehnungen können sowohl Frequenzen von Strukturen abgeleitet als auch Reaktionen auf externe Einflüsse bestimmt werden. In der vorliegenden Arbeit wurden diese Eigenschaften der FBG Sensoren dahingehend genutzt die auftretenden Frequenzen eines Fährschiffs bei einer Überfahrt zu detektieren. Das Fährschiff Smyril, welches die Strecke zwischen den Häfen Tórshavn und Tvøroyri auf den Färöer Inseln befährt, ist dabei mit 16 FBG Sensoren im Maschinenraum und zwei FBG Sensoren im Bug ausgestattet. Die in dieser Arbeit benutzten Daten (Messfrequenz 1000 Hz) stammen von einer dreitägigen Messkampagne (12.2.2018 – 14.2.2018). Zusätzlich wurden für den Zeitraum der Messkampagne GPS Daten (Messfrequenz 1 Hz) von drei geodätischen GPS Antennen, welche am Schiff montiert waren, zur Verfügung gestellt. Ziel der Arbeit ist einerseits die Bestimmung von signifikanten Frequenzen und andererseits eine Verschneidung der Sensordaten (FBG & GPS). Auch ein Zusammenhang der detektierten Frequenzen mit dem Geschehen am Schiff (Anlegemanöver, Beladung, Überfahrt etc.) soll analysiert werden. Die Frequenzanalyse der FBG Sensordaten wurde in Form einer blockweisen Fast Fourier Transformation (FFT) durchgeführt. Deutlich ließen sich darin Vorgänge, wie das Starten und Abschalten der Motoren, das Losfahren und Anlegen, sowie das Verlassen und Einfahren in einen Hafen, detektieren, welche sehr gut mit den Aufzeichnungen des Geschehens am Schiff übereinstimmten. Die detektierten, meist konstanten, Frequenzen lagen in einem Bereich zwischen 0 – 100 Hz. Für die Verschneidung der FBG mit den GPS Daten konnte, aufgrund der geringen Messfrequenz von GPS (1 Hz), nur der Wellengang analysiert werden. Dabei konnten starke Korrelationen zwischen den beiden Sensortypen, welche auf unterschiedlichen Messprinzipien beruhen, bestimmt werden. Anhand der Amplitudenspektren der beiden Sensortypen zeigte sich deutlich, dass sich die Grundfrequenz des Wellengangs mit beiden übereinstimmend detektieren ließ. Schlussfolgernd lässt sich somit sagen, dass die Eignung der FBG für die dynamische Überwachung dieser großen mechanischen Struktur definitiv gegeben ist.
Faser Bragg Gitter (FBG) ermöglichen die hochfrequente, quasi-verteilte Erfassung von Dehnungen. Dabei handelt es sich um eine nur wenige Millimeter lange Mikrostruktur, welche bereits während der Produktion der Glasfaser am Ziehturm mit Hilfe einer Phasenmaske in den Faserkern eingeschrieben wird. Diese erzeugt eine periodische Änderung des Brechungsindex des Glasfaserkerns in diesem Bereich. Durch Beleuchten des FBG mit einer breitbandigen Lichtquelle wird eine spezifische Wellenlänge reflektiert. Somit bietet dieses Messverfahren die Möglichkeit mehrere FBG Sensoren entlang einer einzelnen Faser anzuordnen und zu unterscheiden. Einwirkungen, wie Temperaturänderung und Deformation, am FBG führen zu Wellenlängenänderungen, welche im Interrogator aufgezeichnet werden. Diese können in weiterer Folge in Dehnungen umgerechnet werden. Aus den erfassten Dehnungen können sowohl Frequenzen von Strukturen abgeleitet als auch Reaktionen auf externe Einflüsse bestimmt werden. In der vorliegenden Arbeit wurden diese Eigenschaften der FBG Sensoren dahingehend genutzt die auftretenden Frequenzen eines Fährschiffs bei einer Überfahrt zu detektieren. Das Fährschiff Smyril, welches die Strecke zwischen den Häfen Tórshavn und Tvøroyri auf den Färöer Inseln befährt, ist dabei mit 16 FBG Sensoren im Maschinenraum und zwei FBG Sensoren im Bug ausgestattet. Die in dieser Arbeit benutzten Daten (Messfrequenz 1000 Hz) stammen von einer dreitägigen Messkampagne (12.2.2018 – 14.2.2018). Zusätzlich wurden für den Zeitraum der Messkampagne GPS Daten (Messfrequenz 1 Hz) von drei geodätischen GPS Antennen, welche am Schiff montiert waren, zur Verfügung gestellt. Ziel der Arbeit ist einerseits die Bestimmung von signifikanten Frequenzen und andererseits eine Verschneidung der Sensordaten (FBG & GPS). Auch ein Zusammenhang der detektierten Frequenzen mit dem Geschehen am Schiff (Anlegemanöver, Beladung, Überfahrt etc.) soll analysiert werden. Die Frequenzanalyse der FBG Sensordaten wurde in Form einer blockweisen Fast Fourier Transformation (FFT) durchgeführt. Deutlich ließen sich darin Vorgänge, wie das Starten und Abschalten der Motoren, das Losfahren und Anlegen, sowie das Verlassen und Einfahren in einen Hafen, detektieren, welche sehr gut mit den Aufzeichnungen des Geschehens am Schiff übereinstimmten. Die detektierten, meist konstanten, Frequenzen lagen in einem Bereich zwischen 0 – 100 Hz. Für die Verschneidung der FBG mit den GPS Daten konnte, aufgrund der geringen Messfrequenz von GPS (1 Hz), nur der Wellengang analysiert werden. Dabei konnten starke Korrelationen zwischen den beiden Sensortypen, welche auf unterschiedlichen Messprinzipien beruhen, bestimmt werden. Anhand der Amplitudenspektren der beiden Sensortypen zeigte sich deutlich, dass sich die Grundfrequenz des Wellengangs mit beiden übereinstimmend detektieren ließ. Schlussfolgernd lässt sich somit sagen, dass die Eignung der FBG für die dynamische Überwachung dieser großen mechanischen Struktur definitiv gegeben ist.