- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2020
Abschlussarbeiten 2020
Spatio-temporal deformation analysis using enhanced B-spline models of laser scanning point clouds
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2020
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner
Kurzfassung/Abstract
In recent years, terrestrial laser scanning has become a standard measuring technique for engineering geodetic applications. Due to its contact-less and fast data acquisition as well as the resulting quasi-continuous description of the object under investigation, laser scanning has a number of advantages over classical point-based measuring techniques. However, a variety of challenges arises, in particular regarding the scope of deformation analyses. Among other things, it is impossible to acquire identical data points in different measuring epochs by means of a laser scanner. Hence, a movement from classical point-based analysis strategies to area-based strategies is necessary. An areal deformation analysis is often preceded by a modelling of the point clouds with mathematical functions. Within this thesis, enhanced B-spline models are developed with regard to a space-continuous modelling of laser scanning point clouds. These investigations include the development of a constraint iterative reparameterization strategy for laser scanning point clouds, as well as the development of a B-spline classifier, allowing for the estimation of the VC-dimension of B-splines. With this development, structural risk minimization becomes applicable for choosing B-spline curves and surfaces with optimal complexity. The enhanced B-spline models provide the basis for the development of a spatio-temporal deformation model. The developed approach’s main idea is to model the acquired and deforming object by means of three parts, similar to least squares collocation. A deterministic trend, which is described by means of a B-spline surface, represents the undistorted object. The deformation is interpreted to be a realization of a locally homogeneous stochastic process and is modelled by means of a stochastic signal. The third part, the measuring noise, accounts for uncertainties caused by the measuring process. The developed approach is successfully applied to simulated data sets.
In recent years, terrestrial laser scanning has become a standard measuring technique for engineering geodetic applications. Due to its contact-less and fast data acquisition as well as the resulting quasi-continuous description of the object under investigation, laser scanning has a number of advantages over classical point-based measuring techniques. However, a variety of challenges arises, in particular regarding the scope of deformation analyses. Among other things, it is impossible to acquire identical data points in different measuring epochs by means of a laser scanner. Hence, a movement from classical point-based analysis strategies to area-based strategies is necessary. An areal deformation analysis is often preceded by a modelling of the point clouds with mathematical functions. Within this thesis, enhanced B-spline models are developed with regard to a space-continuous modelling of laser scanning point clouds. These investigations include the development of a constraint iterative reparameterization strategy for laser scanning point clouds, as well as the development of a B-spline classifier, allowing for the estimation of the VC-dimension of B-splines. With this development, structural risk minimization becomes applicable for choosing B-spline curves and surfaces with optimal complexity. The enhanced B-spline models provide the basis for the development of a spatio-temporal deformation model. The developed approach’s main idea is to model the acquired and deforming object by means of three parts, similar to least squares collocation. A deterministic trend, which is described by means of a B-spline surface, represents the undistorted object. The deformation is interpreted to be a realization of a locally homogeneous stochastic process and is modelled by means of a stochastic signal. The third part, the measuring noise, accounts for uncertainties caused by the measuring process. The developed approach is successfully applied to simulated data sets.
Backscatter Statistical Analysis using Multi-Temporal Sentinel-1 SAR Data for Land Cover Mapping in Europe
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2020
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Univ.-Ass. Dr. Vahid Freeman MSc.
Kurzfassung/Abstract
The aim of this study is to demonstrate the potential of using Sentinel-1 SAR data for mapping land cover using CORINE Land Cover nomenclature and Google Earth Engine, based on the analysis of the temporal variation of the backscatter. To this aim dual and single polarization, interferometric Wide swath mode (IW) for year 2016 over five different test sites in Europe was used. Backscatter temporal variation for different statistic parameters and for different combination of VV and VH polarization was analyzed for a better understanding of its signature for different land cover classes and for obtaining a good classification of the data. In addition, the statistical class separability for different class pairs and the NDVI for each test area were analyzed. Support Vector Machine (SVM) method was used to classify the dataset. During the classification, different scenarios were used to find out which combination would give a good classification with a high accuracy. The different combinations of VV and VH polarizations were used in conjunction with other data, like DEM, aspect and local incidence angle to obtain a high accuracy. The resulting classified images have been assed using the overall accuracy and the Kappa coefficient. Results demonstrated that while using only the mean single polarization, the classification accuracy would be low, but by using a combination of dual polarization in conjunction with ancillary data, the accuracy would increase, namely the overall accuracy increases up to 90.82% and Kappa coefficient up to 0.85. Thus, the information on the temporal variation of the backscatter can be used successfully for mapping different land cover types.
The aim of this study is to demonstrate the potential of using Sentinel-1 SAR data for mapping land cover using CORINE Land Cover nomenclature and Google Earth Engine, based on the analysis of the temporal variation of the backscatter. To this aim dual and single polarization, interferometric Wide swath mode (IW) for year 2016 over five different test sites in Europe was used. Backscatter temporal variation for different statistic parameters and for different combination of VV and VH polarization was analyzed for a better understanding of its signature for different land cover classes and for obtaining a good classification of the data. In addition, the statistical class separability for different class pairs and the NDVI for each test area were analyzed. Support Vector Machine (SVM) method was used to classify the dataset. During the classification, different scenarios were used to find out which combination would give a good classification with a high accuracy. The different combinations of VV and VH polarizations were used in conjunction with other data, like DEM, aspect and local incidence angle to obtain a high accuracy. The resulting classified images have been assed using the overall accuracy and the Kappa coefficient. Results demonstrated that while using only the mean single polarization, the classification accuracy would be low, but by using a combination of dual polarization in conjunction with ancillary data, the accuracy would increase, namely the overall accuracy increases up to 90.82% and Kappa coefficient up to 0.85. Thus, the information on the temporal variation of the backscatter can be used successfully for mapping different land cover types.
GNSS Qualitätsüberwachung mittels Momentaufnahmen digitaler Satellitensignale
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2020
Betreuer: Em.Univ.-Prof. Dipl.-Ing. Dr.techn. Dr.h.c.mult. Bernhard Hofmann-Wellenhof
Kurzfassung/Abstract
Der Einsatz globaler Navigationssatellitensysteme und die damit verbundene ständige Verfügbarkeit von Positions- und präzisen Zeitmessungen wird in vielen Anwendungen des täglichen Lebens immer mehr zur Selbstverständlichkeit. Die Informationen von GNSS-Satelliten werden in vielen Bereichen wie dem Bauingenieurswesen, der Energiewirtschaft, der Landwirtschaft, der Telekommunikation, dem Transportwesen, dem Vermessungswesen und in vielen weiteren verwendet. Studien zeigen, dass die wichtigsten GNSS-Märkte Verkehrsanwendungen und standortbezogene Dienste sind. Die Anzahl der GNSS-Nutzer nimmt ständig zu und Prognosen zeigen, dass es in den nächsten Jahren pro Person ein Gerät geben wird. Aufgrund der zunehmenden Anzahl von Anwendungen und Nutzern wird es immer wichtiger, nicht nur die Chancen, sondern auch die Schwächen und Risiken einer satellitengestützten Positionsbestimmung zu berücksichtigen. Derzeit sind sich viele Nutzer der potenziellen GNSS-Bedrohungen und ihrer Auswirkungen nicht bewusst. In den letzten Jahren sind GNSS-Anwendungen zum Ziel von absichtlichen Interferenzangriffen geworden. Studien zeigen, dass Störungen sowohl erhebliche wirtschaftliche als auch materielle Schäden verursachen können, da Störsignale den Betrieb des GNSS-Empfängers erheblich beeinflussen können. Im Allgemeinen können die Auswirkungen von Störungen zu verminderten Positions- und Zeitgenauigkeiten oder zu einem Totalausfall der Positionierung führen. Erfolgreiche Mitigationstechniken erfordern eine erfolgreiche und zuverlässige Erkennung und Klassifizierung von GNSS-Interferenzen im Vorhinein. Klassische Ansätze verwenden ein kontinuierliches Monitoring innerhalb der GNSS-Signalbänder. Da der Prozessierungsaufwand und die zu verarbeitenden Datenmengen als sehr hoch angesehen werden, ist eine kontinuierliche Überwachung nicht für alle und insbesondere nicht für kostengünstige GNSS-Anwendungen geeignet. Eine GNSS-Positionierungstechnik, die nur eine begrenzte Datenmenge (z.B. die Signallänge) verwendet, wird als GNSS-Snapshot-Prozessierung bezeichnet. Diese Technik wird in GNSS-Empfängern eingesetzt, wenn nur begrenzt Energie für die Berechnung der Positionslösung zur Verfügung steht. Dadurch wird die erforderliche Rechenleistung auf ein Minimum reduziert. Der Empfänger erfasst nur wenige Millisekunden der digitalisierten GNSS-Signale und verarbeitet diese, um eine Lösung für Position, Geschwindigkeit und Zeit zu erhalten. Da keine Dekodierung der Navigationsnachricht stattfindet, muss der Empfänger den Zeitpunkt der Signalübertragung selbst schätzen. Dies reduziert die Genauigkeit der Positionslösung auf mehrere Dutzend Meter. Diese Genauigkeit ist jedoch ausreichend für Tracking- und Tracing-Anwendungen, die weniger strenge Anforderungen haben. Im Rahmen dieser Arbeit wurde die GNSS-Snapshot-Technik näher untersucht. Das Potenzial der Interferenzerkennung mit sehr kurzen Signalstücken wurde untersucht, implementiert und getestet. Diese Algorithmen wurden hinsichtlich ihrer Genauigkeit und Präzision mit unterschiedlichen Abtastfrequenzen und Signallängen verglichen. Daraus wurde die geringste mögliche Abtastfrequenz und Signallänge ermittelt, mit der die Interferenzsignale erfolgreich detektiert wurden, unter Aufrechterhaltung einer genauen und präzisen Positionslösung. Die zeitfreien Positionsmethoden wurden mittels simulierten und echten aufgezeichneten Daten untersucht. Verschiedene Detektionsmethoden für Interferenzen wurden implementiert und jene, die auf Snapshot-Techniken basieren, wurden im Detail analysiert und diskutiert. Als Interferenzsignale wurden verschiedene Jamming- und Spoofingsignale simuliert und das Verhalten der Detektoren untersucht und analysiert. Im Anschluss wurden die Detektoren auf echte aufgezeichnete Daten angewandt, um ihr Verhalten ohne Interferenzsignale zu untersuchen. Die Resultate werden im Detail diskutiert und eine Schlussfolgerung daraus gezogen.
Der Einsatz globaler Navigationssatellitensysteme und die damit verbundene ständige Verfügbarkeit von Positions- und präzisen Zeitmessungen wird in vielen Anwendungen des täglichen Lebens immer mehr zur Selbstverständlichkeit. Die Informationen von GNSS-Satelliten werden in vielen Bereichen wie dem Bauingenieurswesen, der Energiewirtschaft, der Landwirtschaft, der Telekommunikation, dem Transportwesen, dem Vermessungswesen und in vielen weiteren verwendet. Studien zeigen, dass die wichtigsten GNSS-Märkte Verkehrsanwendungen und standortbezogene Dienste sind. Die Anzahl der GNSS-Nutzer nimmt ständig zu und Prognosen zeigen, dass es in den nächsten Jahren pro Person ein Gerät geben wird. Aufgrund der zunehmenden Anzahl von Anwendungen und Nutzern wird es immer wichtiger, nicht nur die Chancen, sondern auch die Schwächen und Risiken einer satellitengestützten Positionsbestimmung zu berücksichtigen. Derzeit sind sich viele Nutzer der potenziellen GNSS-Bedrohungen und ihrer Auswirkungen nicht bewusst. In den letzten Jahren sind GNSS-Anwendungen zum Ziel von absichtlichen Interferenzangriffen geworden. Studien zeigen, dass Störungen sowohl erhebliche wirtschaftliche als auch materielle Schäden verursachen können, da Störsignale den Betrieb des GNSS-Empfängers erheblich beeinflussen können. Im Allgemeinen können die Auswirkungen von Störungen zu verminderten Positions- und Zeitgenauigkeiten oder zu einem Totalausfall der Positionierung führen. Erfolgreiche Mitigationstechniken erfordern eine erfolgreiche und zuverlässige Erkennung und Klassifizierung von GNSS-Interferenzen im Vorhinein. Klassische Ansätze verwenden ein kontinuierliches Monitoring innerhalb der GNSS-Signalbänder. Da der Prozessierungsaufwand und die zu verarbeitenden Datenmengen als sehr hoch angesehen werden, ist eine kontinuierliche Überwachung nicht für alle und insbesondere nicht für kostengünstige GNSS-Anwendungen geeignet. Eine GNSS-Positionierungstechnik, die nur eine begrenzte Datenmenge (z.B. die Signallänge) verwendet, wird als GNSS-Snapshot-Prozessierung bezeichnet. Diese Technik wird in GNSS-Empfängern eingesetzt, wenn nur begrenzt Energie für die Berechnung der Positionslösung zur Verfügung steht. Dadurch wird die erforderliche Rechenleistung auf ein Minimum reduziert. Der Empfänger erfasst nur wenige Millisekunden der digitalisierten GNSS-Signale und verarbeitet diese, um eine Lösung für Position, Geschwindigkeit und Zeit zu erhalten. Da keine Dekodierung der Navigationsnachricht stattfindet, muss der Empfänger den Zeitpunkt der Signalübertragung selbst schätzen. Dies reduziert die Genauigkeit der Positionslösung auf mehrere Dutzend Meter. Diese Genauigkeit ist jedoch ausreichend für Tracking- und Tracing-Anwendungen, die weniger strenge Anforderungen haben. Im Rahmen dieser Arbeit wurde die GNSS-Snapshot-Technik näher untersucht. Das Potenzial der Interferenzerkennung mit sehr kurzen Signalstücken wurde untersucht, implementiert und getestet. Diese Algorithmen wurden hinsichtlich ihrer Genauigkeit und Präzision mit unterschiedlichen Abtastfrequenzen und Signallängen verglichen. Daraus wurde die geringste mögliche Abtastfrequenz und Signallänge ermittelt, mit der die Interferenzsignale erfolgreich detektiert wurden, unter Aufrechterhaltung einer genauen und präzisen Positionslösung. Die zeitfreien Positionsmethoden wurden mittels simulierten und echten aufgezeichneten Daten untersucht. Verschiedene Detektionsmethoden für Interferenzen wurden implementiert und jene, die auf Snapshot-Techniken basieren, wurden im Detail analysiert und diskutiert. Als Interferenzsignale wurden verschiedene Jamming- und Spoofingsignale simuliert und das Verhalten der Detektoren untersucht und analysiert. Im Anschluss wurden die Detektoren auf echte aufgezeichnete Daten angewandt, um ihr Verhalten ohne Interferenzsignale zu untersuchen. Die Resultate werden im Detail diskutiert und eine Schlussfolgerung daraus gezogen.
Oberflächennahe Streueffekte über Kroatien
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2020
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dr. Mariette Vreugdenhil MSc
Kurzfassung/Abstract
Die durchschnittlichen globalen Temperaturen steigen, Klimamuster und -trends ändern sich und die Auswirkungen sind überall zu beobachten. Die Fernerkundung hat die Art und Weise, wie wir diese Klimaveränderungen auf unserem Planeten Erde wahrnehmen, revolutioniert. Das Ziel dieser Arbeit ist es, unterirdische Streueffekte in C-Band-Rückstreuung über Kroatien mit Sentinel-1 in hoher Auflösung zu charakterisieren. In den Sommermonaten ist die Bodenfeuchtigkeitsinformation, die durch C-Band-Rückstreuung von Sentinel-1 gesammelt wird, viel höher als die GLDAS-Bodenfeuchtigkeitsmodelldaten, die als die absolute Wahrheit angesehen werden. Es wird vermutet, dass diese hohe Rückstreuung in Zeiten extrem niedriger Bodenfeuchte durch Volumenstreuung in der trockenen Bodenschicht und weiters durch unterirdische Unstetigkeiten erklärt werden kann. Nach einem theoretischen Einblick zur Volumsstreuung unter der Erdoberfläche werden zwei Forschungsfragen behandelt. 1) Was sind die räumlichen und zeitlichen Merkmale der Untergrundstreuung in Kroatien? 2) Welche physikalischen Prozesse treiben die Streuung unter der Oberfläche in Kroatien voran? Weiterhin muss ein Bodenfeuchteschwellenwert vorliegen, ab dem die übliche positive Korrelation zwischen Rückstreuung und Bodenfeuchte stattfindet. Eine zeitliche Analyse wurde durchgeführt, um zu verstehen, zu welcher Jahreszeit und für welche Zeitspanne S-1 SM in Abwesenheit von Niederschlag fälschlicherweise anzusteigen beginnt. Für die räumliche Analyse wurden die Korrelationskoeffizienten der Bodenfeuchte von Sentinel-1 und GLDAS Daten mit Google-Satellitenbildern, ESA-CCI-LC-Daten, SoilGrids-Daten und IHME-1500-Lithologiedaten verglichen um geografische Muster und Trends der Streuung des Untergrunds in Zeiten mit geringer Bodenfeuchte aufzudecken und um zu sehen unter welchen Umständen eine solche Untergrundstreuung auftritt. Die Ergebnisse zeigten klare zeitliche Trends sowie räumliche Korrelationen mit Landbedeckung, Bodentyp und Lithologietyp über Kroatien. Diese Untersuchung beweist jedoch, dass keine einzige Oberflächeneigenschaft dieses Phänomen bestimmt, sondern dass es ein Zusammenspiel aller Eigenschaften ist, welches dieses Phänomen zulässt, oder auch nicht.
Die durchschnittlichen globalen Temperaturen steigen, Klimamuster und -trends ändern sich und die Auswirkungen sind überall zu beobachten. Die Fernerkundung hat die Art und Weise, wie wir diese Klimaveränderungen auf unserem Planeten Erde wahrnehmen, revolutioniert. Das Ziel dieser Arbeit ist es, unterirdische Streueffekte in C-Band-Rückstreuung über Kroatien mit Sentinel-1 in hoher Auflösung zu charakterisieren. In den Sommermonaten ist die Bodenfeuchtigkeitsinformation, die durch C-Band-Rückstreuung von Sentinel-1 gesammelt wird, viel höher als die GLDAS-Bodenfeuchtigkeitsmodelldaten, die als die absolute Wahrheit angesehen werden. Es wird vermutet, dass diese hohe Rückstreuung in Zeiten extrem niedriger Bodenfeuchte durch Volumenstreuung in der trockenen Bodenschicht und weiters durch unterirdische Unstetigkeiten erklärt werden kann. Nach einem theoretischen Einblick zur Volumsstreuung unter der Erdoberfläche werden zwei Forschungsfragen behandelt. 1) Was sind die räumlichen und zeitlichen Merkmale der Untergrundstreuung in Kroatien? 2) Welche physikalischen Prozesse treiben die Streuung unter der Oberfläche in Kroatien voran? Weiterhin muss ein Bodenfeuchteschwellenwert vorliegen, ab dem die übliche positive Korrelation zwischen Rückstreuung und Bodenfeuchte stattfindet. Eine zeitliche Analyse wurde durchgeführt, um zu verstehen, zu welcher Jahreszeit und für welche Zeitspanne S-1 SM in Abwesenheit von Niederschlag fälschlicherweise anzusteigen beginnt. Für die räumliche Analyse wurden die Korrelationskoeffizienten der Bodenfeuchte von Sentinel-1 und GLDAS Daten mit Google-Satellitenbildern, ESA-CCI-LC-Daten, SoilGrids-Daten und IHME-1500-Lithologiedaten verglichen um geografische Muster und Trends der Streuung des Untergrunds in Zeiten mit geringer Bodenfeuchte aufzudecken und um zu sehen unter welchen Umständen eine solche Untergrundstreuung auftritt. Die Ergebnisse zeigten klare zeitliche Trends sowie räumliche Korrelationen mit Landbedeckung, Bodentyp und Lithologietyp über Kroatien. Diese Untersuchung beweist jedoch, dass keine einzige Oberflächeneigenschaft dieses Phänomen bestimmt, sondern dass es ein Zusammenspiel aller Eigenschaften ist, welches dieses Phänomen zulässt, oder auch nicht.
Voraussetzungen für die GNSS gestützte Steuerung von Bettungsreinigungsmaschinen
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2020
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Jadre Maras
Kurzfassung/Abstract
Durch Anwendung von GNSS-basierten Echtzeit-Methoden können gegenwärtig Positionierungsgenauigkeiten im Zentimeterbereich erzielt werden. Es wird evaluiert, inwieweit diese Methoden für die kinematische Steuerung der Aushubkette moderner Schotterbettreinigungsmaschinen genutzt werden können. In Anbetracht globaler Einsätze werden Aspekte der Korrekturdaten-Übertragung, der erreichbaren Positionsgenauigkeit sowie Voraussetzungen und Einschränkungen verschiedener GNSS-basierter Methoden analysiert und bewertet. Angesichts der Korrekturdaten-Übertragung werden die maximalen Reichweiten der Funkübermittlung in Abhängigkeit sende- und umgebungsbezogener Parameter bestimmt. Ferner wird gezeigt, dass eine allgemein gültige Aussage hinsichtlich einer flächenbezogenen Mobilfunknetzabdeckung nicht möglich ist. In Anbetracht verschiedener Kriterien validieren die theoretischen Analysen und praktischen Ergebnisse zweier unabhängiger Messsysteme (EM100VT und ZusiVT) das RTK Referenznetz-Konzept als geeignetste GNSS-Echtzeit-Methode zur kinematischen Positionsbestimmung. Werden günstige Bedingungen vorausgesetzt, sind mithilfe der Netz-RTK Methode bei langsamer Bewegung (≤ 1500 m/h) Lageabweichungen (Across Track) von ≤ 1.2 cm (95 %-Quantil) und Höhenabweichungen von ≤ 4.3 cm (95 %-Quantil) erreichbar. Systembedingt wird zur Steuerung der Aushubkette eine GNSS-Position unmittelbar am Gleiskörper gefordert. Die Realisierung erfolgt durch eine 7-Parameter Transformation zwischen dem GNSS- und dem Objektsystem anhand von vier Passpunkten (am EM100VT befestigte GNSS-Antennen). Ist die relative Geometrie der Passpunkte hinreichend präzise (Streckendifferenz ≤ 3 cm), kann in der in dieser Arbeit betrachteten Anwendung, eine Lagegenauigkeit der Koordinaten nach der Transformation von 6.6 mm (95 %-Quantil) bzw. eine Höhengenauigkeit von 0.1 mm (95 %-Quantil) erzielt werden.
Durch Anwendung von GNSS-basierten Echtzeit-Methoden können gegenwärtig Positionierungsgenauigkeiten im Zentimeterbereich erzielt werden. Es wird evaluiert, inwieweit diese Methoden für die kinematische Steuerung der Aushubkette moderner Schotterbettreinigungsmaschinen genutzt werden können. In Anbetracht globaler Einsätze werden Aspekte der Korrekturdaten-Übertragung, der erreichbaren Positionsgenauigkeit sowie Voraussetzungen und Einschränkungen verschiedener GNSS-basierter Methoden analysiert und bewertet. Angesichts der Korrekturdaten-Übertragung werden die maximalen Reichweiten der Funkübermittlung in Abhängigkeit sende- und umgebungsbezogener Parameter bestimmt. Ferner wird gezeigt, dass eine allgemein gültige Aussage hinsichtlich einer flächenbezogenen Mobilfunknetzabdeckung nicht möglich ist. In Anbetracht verschiedener Kriterien validieren die theoretischen Analysen und praktischen Ergebnisse zweier unabhängiger Messsysteme (EM100VT und ZusiVT) das RTK Referenznetz-Konzept als geeignetste GNSS-Echtzeit-Methode zur kinematischen Positionsbestimmung. Werden günstige Bedingungen vorausgesetzt, sind mithilfe der Netz-RTK Methode bei langsamer Bewegung (≤ 1500 m/h) Lageabweichungen (Across Track) von ≤ 1.2 cm (95 %-Quantil) und Höhenabweichungen von ≤ 4.3 cm (95 %-Quantil) erreichbar. Systembedingt wird zur Steuerung der Aushubkette eine GNSS-Position unmittelbar am Gleiskörper gefordert. Die Realisierung erfolgt durch eine 7-Parameter Transformation zwischen dem GNSS- und dem Objektsystem anhand von vier Passpunkten (am EM100VT befestigte GNSS-Antennen). Ist die relative Geometrie der Passpunkte hinreichend präzise (Streckendifferenz ≤ 3 cm), kann in der in dieser Arbeit betrachteten Anwendung, eine Lagegenauigkeit der Koordinaten nach der Transformation von 6.6 mm (95 %-Quantil) bzw. eine Höhengenauigkeit von 0.1 mm (95 %-Quantil) erzielt werden.
Erstellung einer Teilungsurkunde ausschließlich mithilfe von Freier Software
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2020
Betreuer: Ass.Prof. Dipl.-Ing. Dr. Konrad Rautz
Kurzfassung/Abstract
Die Anfänge des Katasters datieren bis zum Beginn des 18. Jahrhunderts - Österreich war zu dieser Zeit noch ein Erzherzogtum des Heiligen Römischen Reiches - zurück. In den seit damals vergangenen fast 300 Jahren durchlebte er eine, nicht nur für Österreich, bewegte Geschichte. Von den Vorläufern des Grundsteuerkatasters über den Grundsteuerkataster bis hin zum Grenzkataster: Vermessungsurkunden waren zu jeder Zeit wichtige Dokumente und dienten zur Sicherung des eigenen Grundbesitzes. Sollen Teile eines Grundstückes abgeschrieben und einem anderen Grundstück zugeschrieben werden, so muss eine Teilungsurkunde darüber verfasst werden. Deren Erstellung obliegt in Österreich unter anderem den Ingenieurkonsulenten für Vermessungswesen, welche sie beim zuständigen Vermessungsamt einbringen und von ihm prüfen lassen. Seit einigen Jahren geschieht dies ausschließlich in digitaler Form, überdies wurde später eine neue Art der digitalen Einbringung - die "strukturierte Einbringung" - ermöglicht. Diese soll den Automatisierungsgrad der Datenübernahme und -verarbeitung erhöhen und dadurch möglichen Fehlerquellen vorbeugen. Im Zuge dieser Arbeit wird gezeigt, dass die Erstellung einer strukturierten Teilungsurkunde, welche sowohl den formalen als auch den zeichnerischen Kriterien der Vermessungsbehörde entspricht, ausschließlich mithilfe von Freier Software erfolgen kann. Eine detaillierte Beschreibung der verwendeten Programme und des Lösungsweges ermöglicht es, den Weg von den Ausgangsdaten über deren Verarbeitung bis hin zur fertigen Teilungsurkunde nachzuvollziehen.
Die Anfänge des Katasters datieren bis zum Beginn des 18. Jahrhunderts - Österreich war zu dieser Zeit noch ein Erzherzogtum des Heiligen Römischen Reiches - zurück. In den seit damals vergangenen fast 300 Jahren durchlebte er eine, nicht nur für Österreich, bewegte Geschichte. Von den Vorläufern des Grundsteuerkatasters über den Grundsteuerkataster bis hin zum Grenzkataster: Vermessungsurkunden waren zu jeder Zeit wichtige Dokumente und dienten zur Sicherung des eigenen Grundbesitzes. Sollen Teile eines Grundstückes abgeschrieben und einem anderen Grundstück zugeschrieben werden, so muss eine Teilungsurkunde darüber verfasst werden. Deren Erstellung obliegt in Österreich unter anderem den Ingenieurkonsulenten für Vermessungswesen, welche sie beim zuständigen Vermessungsamt einbringen und von ihm prüfen lassen. Seit einigen Jahren geschieht dies ausschließlich in digitaler Form, überdies wurde später eine neue Art der digitalen Einbringung - die "strukturierte Einbringung" - ermöglicht. Diese soll den Automatisierungsgrad der Datenübernahme und -verarbeitung erhöhen und dadurch möglichen Fehlerquellen vorbeugen. Im Zuge dieser Arbeit wird gezeigt, dass die Erstellung einer strukturierten Teilungsurkunde, welche sowohl den formalen als auch den zeichnerischen Kriterien der Vermessungsbehörde entspricht, ausschließlich mithilfe von Freier Software erfolgen kann. Eine detaillierte Beschreibung der verwendeten Programme und des Lösungsweges ermöglicht es, den Weg von den Ausgangsdaten über deren Verarbeitung bis hin zur fertigen Teilungsurkunde nachzuvollziehen.
Simulation des Ausbruchs der Maul- und Klauenseuche in Österreich
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2020
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Die Maul- und Klauenseuche ist eine hoch kontagiöse Viruserkrankung der Klauentiere, die in der Vergangenheit in zahlreichen Seuchenzügen Millionen Tieren das Leben kostete. Praktisch weltweit verbreitet besteht jederzeit die Möglichkeit, den Krankheitserreger in die Population einzuschleppen. Zu den Übertragungsarten zählen lokale Übertragung, Transport infizierter Tiere und die indirekte Übertragung durch Menschen und Material. In dieser Arbeit wird mit dem Programm InterSpread Plus der Ausbruch der Maul- und Klauenseuche im österreichischen Rinderbestand simuliert. Dazu wurde ein geeigneter Parametersatz gefunden, der unter realistischen Bedingungen die Größenordnung von infizierten Betrieben und Tieren sowie der Ausbruchsdauer liefert. InterSpread Plus wurde bereits bei dem letzten großen Ausbruch in Europa, 2001 in Großbritannien mit über 6 Millionen gekeulten Tieren, verwendet, um den weiteren Verlauf zu simulieren. Der Rinderbestand in Österreich betrug mit Stichtag 1.12.2019 insgesamt ca. 1,8 Millionen Rinder in 54.790 Betrieben. Diese Betriebe sowie 22 Schlachthöfe und 20 Märkte bildeten die Grundlage des Modells. Eingabeparameter für Infektiosität, Transporte, Schutz- und Überwachungszonen, Überwachung, Ressourcenmanagement u.v.m. wurden aus der Literatur erarbeitet und an die österreichischen Gegebenheiten angepasst. Ein Basismodell mit diesem Parametersatz bildet die Grundlage für eine Sensitivitätsanalyse. Dabei wurden einzelne Parameter variiert um deren Einfluss auf die Simulation zu beurteilen. Im Median (0,25- bzw. 0,75 Quantil dazu in Klammer) dauert der Ausbruch des Basismodells 53 Tage (37 - 87) und umfasste 95 infizierte Betriebe (58 - 276) und 2.413 infizierte Tiere (1.385- 6.154). Bei der Sensitivitätsanalyse zeigte sich, dass die High-Risk Periode (Zeit zwischen Infektion des ersten Betriebs und der ersten Entdeckung) bzw. die lokale Übertragung den größten Einfluss auf den Ausgang zeigen. Dagegen zeigten Variationen der Infektiosität bei Transporten, extra Kontakte von Tierärzten und Bewegungseinschränkungen in den Zonen kaum Einfluss auf den Ausgang. Neben den gesetzlichen Vorgaben zur Bekämpfung von MKS wurden 2 weitere Szenarien untersucht: die Errichtung einer Keulungszone und einer Impfzone um detektierte Betriebe. Bei der Keulungszone von 500m zeigt sich, dass die gekeulten Betriebe im Median leicht steigen, die Dauer jedoch reduziert wird. Dies könnte an ausgewählten Standorten eingesetzt werden, um einen Ausbruch schnell unter Kontrolle zu bekommen. Größere Keulungszonen und alle Impfzonen boten keine Verbesserung zum Basismodell.
Die Maul- und Klauenseuche ist eine hoch kontagiöse Viruserkrankung der Klauentiere, die in der Vergangenheit in zahlreichen Seuchenzügen Millionen Tieren das Leben kostete. Praktisch weltweit verbreitet besteht jederzeit die Möglichkeit, den Krankheitserreger in die Population einzuschleppen. Zu den Übertragungsarten zählen lokale Übertragung, Transport infizierter Tiere und die indirekte Übertragung durch Menschen und Material. In dieser Arbeit wird mit dem Programm InterSpread Plus der Ausbruch der Maul- und Klauenseuche im österreichischen Rinderbestand simuliert. Dazu wurde ein geeigneter Parametersatz gefunden, der unter realistischen Bedingungen die Größenordnung von infizierten Betrieben und Tieren sowie der Ausbruchsdauer liefert. InterSpread Plus wurde bereits bei dem letzten großen Ausbruch in Europa, 2001 in Großbritannien mit über 6 Millionen gekeulten Tieren, verwendet, um den weiteren Verlauf zu simulieren. Der Rinderbestand in Österreich betrug mit Stichtag 1.12.2019 insgesamt ca. 1,8 Millionen Rinder in 54.790 Betrieben. Diese Betriebe sowie 22 Schlachthöfe und 20 Märkte bildeten die Grundlage des Modells. Eingabeparameter für Infektiosität, Transporte, Schutz- und Überwachungszonen, Überwachung, Ressourcenmanagement u.v.m. wurden aus der Literatur erarbeitet und an die österreichischen Gegebenheiten angepasst. Ein Basismodell mit diesem Parametersatz bildet die Grundlage für eine Sensitivitätsanalyse. Dabei wurden einzelne Parameter variiert um deren Einfluss auf die Simulation zu beurteilen. Im Median (0,25- bzw. 0,75 Quantil dazu in Klammer) dauert der Ausbruch des Basismodells 53 Tage (37 - 87) und umfasste 95 infizierte Betriebe (58 - 276) und 2.413 infizierte Tiere (1.385- 6.154). Bei der Sensitivitätsanalyse zeigte sich, dass die High-Risk Periode (Zeit zwischen Infektion des ersten Betriebs und der ersten Entdeckung) bzw. die lokale Übertragung den größten Einfluss auf den Ausgang zeigen. Dagegen zeigten Variationen der Infektiosität bei Transporten, extra Kontakte von Tierärzten und Bewegungseinschränkungen in den Zonen kaum Einfluss auf den Ausgang. Neben den gesetzlichen Vorgaben zur Bekämpfung von MKS wurden 2 weitere Szenarien untersucht: die Errichtung einer Keulungszone und einer Impfzone um detektierte Betriebe. Bei der Keulungszone von 500m zeigt sich, dass die gekeulten Betriebe im Median leicht steigen, die Dauer jedoch reduziert wird. Dies könnte an ausgewählten Standorten eingesetzt werden, um einen Ausbruch schnell unter Kontrolle zu bekommen. Größere Keulungszonen und alle Impfzonen boten keine Verbesserung zum Basismodell.
Flächenhafte Deformationsanalyse unter Verwendung von approximierenden B-Spline-Flächen
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2020
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.Ass. Dr. Corinna Harmening MSc
Kurzfassung/Abstract
Klassische Deformationsanalysen sind in der Lage statistisch gesicherte Aussagen über Verformungen eines Objekts sowohl gegenüber seiner Umgebung als auch innerhalb des Objekts abzuleiten. Voraussetzung für die Analysen sind wohl geplante geodätische Netze, innerhalb derer sich die durch einzelne diskretisierte Punkte repräsentierten Objekte erfassen lassen. Den durch hohen Planungs- und Signalisierungsaufwand gekennzeichneten klassischen Ansätzen stehen seit einiger Zeit zunehmend solche gegenüber, die mit der Verarbeitung von flächenhaft erfassten Objektoberflächen arbeiten. Flächenhafte Erfassungsmethoden, wie beispielsweise die Messtechnik des terrestrischen Laserscannings, erlauben die lückenlose Aufnahme der zu untersuchenden Oberflächen innerhalb kurzer Zeit und mit wenig Planungsaufwand. Die Eigenschaften der entstehenden Punktwolken bringen dabei einige Herausforderungen mit sich, welche unter Anderem die Komplexität des stochastischen Modells oder die korrekte Identifizierung identer Bereiche innerhalb der Aufnahmen betreffen. Auf Letzteren liegt ein Schwerpunkt in den Untersuchungen der vorliegenden Arbeit. Im Zuge dessen wird ein Verfahren zur Ableitung von Deformationsaussagen zwischen zu verschiedenen Zeitpunkten aufgenommenen Punktwolken derselben Objektoberfläche entwickelt. Die Implementierung des Ansatzes erfolgt in MATLAB und basiert auf der B-Spline-Approximation der anhand einer Sollfläche simulierten Messdaten. Anhand der approximierten Flächen werden Identpunkte in einem regelmäßigen Raster diskretisiert, welche im Anschluss zur Ermittlung der Elemente der Starrkörperbewegung und der Detektion von überlagerten Verformungen innerhalb der Objektoberfläche herangezogen werden. In der Analyse der Ergebnisse zeigt sich, dass verformte Bereiche mit der entwickelten Methodik zuverlässig detektiert und die Elemente der Starrkörperbewegung mit ausreichender Genauigkeit bestimmt werden können. Durch Erhöhung der Diskretisierungsdichte wird versucht, einen höheren Detailgrad der Lokalisierung der Verformungen zu erreichen; im stochastischen Modell der diskretisierten Flächenpunkte kommt es dabei zu Singularitäten sobald die durch die Parametrisierung der zugrunde liegenden B-Spline-Fläche definierte maximale Diskretisierungsdichte überschritten wird. Durch verschiedene Ansätze werden Wege aufgezeigt um die entstehenden singulären Varianz-Kovarianzmatrizen in den entsprechenden Ausgleichungen zu verarbeiten.
Klassische Deformationsanalysen sind in der Lage statistisch gesicherte Aussagen über Verformungen eines Objekts sowohl gegenüber seiner Umgebung als auch innerhalb des Objekts abzuleiten. Voraussetzung für die Analysen sind wohl geplante geodätische Netze, innerhalb derer sich die durch einzelne diskretisierte Punkte repräsentierten Objekte erfassen lassen. Den durch hohen Planungs- und Signalisierungsaufwand gekennzeichneten klassischen Ansätzen stehen seit einiger Zeit zunehmend solche gegenüber, die mit der Verarbeitung von flächenhaft erfassten Objektoberflächen arbeiten. Flächenhafte Erfassungsmethoden, wie beispielsweise die Messtechnik des terrestrischen Laserscannings, erlauben die lückenlose Aufnahme der zu untersuchenden Oberflächen innerhalb kurzer Zeit und mit wenig Planungsaufwand. Die Eigenschaften der entstehenden Punktwolken bringen dabei einige Herausforderungen mit sich, welche unter Anderem die Komplexität des stochastischen Modells oder die korrekte Identifizierung identer Bereiche innerhalb der Aufnahmen betreffen. Auf Letzteren liegt ein Schwerpunkt in den Untersuchungen der vorliegenden Arbeit. Im Zuge dessen wird ein Verfahren zur Ableitung von Deformationsaussagen zwischen zu verschiedenen Zeitpunkten aufgenommenen Punktwolken derselben Objektoberfläche entwickelt. Die Implementierung des Ansatzes erfolgt in MATLAB und basiert auf der B-Spline-Approximation der anhand einer Sollfläche simulierten Messdaten. Anhand der approximierten Flächen werden Identpunkte in einem regelmäßigen Raster diskretisiert, welche im Anschluss zur Ermittlung der Elemente der Starrkörperbewegung und der Detektion von überlagerten Verformungen innerhalb der Objektoberfläche herangezogen werden. In der Analyse der Ergebnisse zeigt sich, dass verformte Bereiche mit der entwickelten Methodik zuverlässig detektiert und die Elemente der Starrkörperbewegung mit ausreichender Genauigkeit bestimmt werden können. Durch Erhöhung der Diskretisierungsdichte wird versucht, einen höheren Detailgrad der Lokalisierung der Verformungen zu erreichen; im stochastischen Modell der diskretisierten Flächenpunkte kommt es dabei zu Singularitäten sobald die durch die Parametrisierung der zugrunde liegenden B-Spline-Fläche definierte maximale Diskretisierungsdichte überschritten wird. Durch verschiedene Ansätze werden Wege aufgezeigt um die entstehenden singulären Varianz-Kovarianzmatrizen in den entsprechenden Ausgleichungen zu verarbeiten.
Systematische Aktualisierung zwischen Kataster- und Grundbuchdaten in der Föderation Bosnien-Herzegowina
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2020
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Das duale System der Verzeichnisführung von Liegenschaften im Kataster und Grundbuch in Bosnien-Herzegowina ist größtenteils eine Folge historischer Ereignisse in der Region. Die Nachkriegszeit bestärkte die bereits bestehenden Bestrebungen der Landvermesser, neue Liegenschaftsverzeichnisse aufzustellen, um die große Lücke in der Übereinstimmung zwischen Kataster und Grundbuch zu überwinden. Dementsprechend werden seit mehreren Jahren in der Föderation Bosnien-Herzegowina Projekte zur systematischen Aktualisierung zwischen Kataster- und Grundbuchdaten durchgeführt, mit dem Ziel ein modernes Kataster- und Grundbuchinformationssystem aufzubauen, unter dessen Schirmherrschaft die Fortführung der Liegenschaftsinformationen durch präzise definierte Befugnisse von Landvermessern und Juristen erreicht wird. Aus der Entstehungsgeschichte der früheren Liegenschaftsverzeichnisse ergibt sich die eindeutige Tatsache, dass die angehäufte Nichtübereinstimmung und die zahlreichen Gründe dafür während ihrer Fortführungsphasen auftraten. Demnach deutet eine wichtige Lehre aus der Vergangenheit darauf, dass die Anlegung zukünftiger Verzeichnisse unbestritten ist. Eine große Herausforderung ist allerdings, die Datenaktualisierung dauerhaft zu gewährleisten, damit das bisherige Schicksal bezüglich der Nichtübereinstimmung vermieden wird. Aus den oben genannten Gründen werden in dieser Arbeit die Ursachen für die Nichtübereinstimmung zwischen Kataster- und Grundbuchdaten behandelt, es werden durchgeführte Aktivitäten und Probleme während der Realisierung der systematischen Aktualisierung beschrieben. Desweiteren wird ein nachhaltiges Modell der Datenübereinstimmung, mit dem Ziel, endgültige und moderne Liegenschaftsverzeichnisse zu schaffen, vorgeschlagen.
Das duale System der Verzeichnisführung von Liegenschaften im Kataster und Grundbuch in Bosnien-Herzegowina ist größtenteils eine Folge historischer Ereignisse in der Region. Die Nachkriegszeit bestärkte die bereits bestehenden Bestrebungen der Landvermesser, neue Liegenschaftsverzeichnisse aufzustellen, um die große Lücke in der Übereinstimmung zwischen Kataster und Grundbuch zu überwinden. Dementsprechend werden seit mehreren Jahren in der Föderation Bosnien-Herzegowina Projekte zur systematischen Aktualisierung zwischen Kataster- und Grundbuchdaten durchgeführt, mit dem Ziel ein modernes Kataster- und Grundbuchinformationssystem aufzubauen, unter dessen Schirmherrschaft die Fortführung der Liegenschaftsinformationen durch präzise definierte Befugnisse von Landvermessern und Juristen erreicht wird. Aus der Entstehungsgeschichte der früheren Liegenschaftsverzeichnisse ergibt sich die eindeutige Tatsache, dass die angehäufte Nichtübereinstimmung und die zahlreichen Gründe dafür während ihrer Fortführungsphasen auftraten. Demnach deutet eine wichtige Lehre aus der Vergangenheit darauf, dass die Anlegung zukünftiger Verzeichnisse unbestritten ist. Eine große Herausforderung ist allerdings, die Datenaktualisierung dauerhaft zu gewährleisten, damit das bisherige Schicksal bezüglich der Nichtübereinstimmung vermieden wird. Aus den oben genannten Gründen werden in dieser Arbeit die Ursachen für die Nichtübereinstimmung zwischen Kataster- und Grundbuchdaten behandelt, es werden durchgeführte Aktivitäten und Probleme während der Realisierung der systematischen Aktualisierung beschrieben. Desweiteren wird ein nachhaltiges Modell der Datenübereinstimmung, mit dem Ziel, endgültige und moderne Liegenschaftsverzeichnisse zu schaffen, vorgeschlagen.
Genauigkeitsuntersuchung eines Virtual Reality Systems am Beispiel des Systems HTC Vive Pro
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2020
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Die Technologie der Virtual Reality (VR) ist mittlerweile in einem ausgereiften Zustand angekommen. Durch die sinkenden Kosten und die steigende Qualität der VR-Systeme eröffnen sich auch neue Anwendungsbereiche. Im Unterschied zum primären Nutzungsbereich in der Gaming-Branche, liegen die Anforderungen bei Anwendern in der produzierenden Industrie neben der Verfügbarkeit auch auf der Genauigkeit und der Stabilität des Positionierungssystems. Diese Anforderungen wurden zum Anlass genommen, um das Gesamtsystem HTC Vive Pro aus geodätischer Perspektive zu untersuchen. In den Versuchen wurden neben den Größenordnungen des Messrauschens auch systematische Abweichungen für die verschiedenen Devicetypen (HMD, Controller und Tracker) bestimmt. Bei der Untersuchung des Einflusses mehrerer Lighthouses auf die Abweichungen konnte festgestellt werden, dass die modulare Erweiterbarkeit, welche als große Stärke des Systems gilt, derzeit auch die betragsmäßig größten Fehlereinflüsse bedingt. Die Untersuchungen haben gezeigt, dass das vorliegende System lediglich unter gewissen Rahmenbedingungen den Anforderungen der Industrie gerecht werden kann. Es ist aber auch deutlich geworden, dass die vorhandene Hardware, kombiniert mit einer für diese Anforderung optimierten Software, deutlich genauere Messungen zulassen würde.
Die Technologie der Virtual Reality (VR) ist mittlerweile in einem ausgereiften Zustand angekommen. Durch die sinkenden Kosten und die steigende Qualität der VR-Systeme eröffnen sich auch neue Anwendungsbereiche. Im Unterschied zum primären Nutzungsbereich in der Gaming-Branche, liegen die Anforderungen bei Anwendern in der produzierenden Industrie neben der Verfügbarkeit auch auf der Genauigkeit und der Stabilität des Positionierungssystems. Diese Anforderungen wurden zum Anlass genommen, um das Gesamtsystem HTC Vive Pro aus geodätischer Perspektive zu untersuchen. In den Versuchen wurden neben den Größenordnungen des Messrauschens auch systematische Abweichungen für die verschiedenen Devicetypen (HMD, Controller und Tracker) bestimmt. Bei der Untersuchung des Einflusses mehrerer Lighthouses auf die Abweichungen konnte festgestellt werden, dass die modulare Erweiterbarkeit, welche als große Stärke des Systems gilt, derzeit auch die betragsmäßig größten Fehlereinflüsse bedingt. Die Untersuchungen haben gezeigt, dass das vorliegende System lediglich unter gewissen Rahmenbedingungen den Anforderungen der Industrie gerecht werden kann. Es ist aber auch deutlich geworden, dass die vorhandene Hardware, kombiniert mit einer für diese Anforderung optimierten Software, deutlich genauere Messungen zulassen würde.
GNSS-Positionsbestimmung Anhand von Rohdaten aus einem mobilen Endgerät im Rahmen der Forstinventur im Wald
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2020
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Die Positionsbestimmung mittels Satelliten ist in der heutigen Zeit eine gängige Praxis. Die Qualität der Positionslösung hängt jedoch sehr stark von mehreren Faktoren ab. Einerseits ist der verwendete Receiver beziehungsweise die verwendete Antenne ausschlaggebend, sowie die Prozessierung der gemessenen Rohdaten, andererseits spielt die Lage und direkte Umgebung des Empfängers eine große Rolle. Für die bestehende Applikation MOTI, welche von der Fachhochschule Bern entwickelt wurde und zur Inventur von Baumbeständen verwendet wird, soll nun eine Positionsbestimmung mittels GNSS implementiert werden. Die Positionsbestimmung im Wald ist aufgrund der erschwerten Umgebungsbedingung und der dadurch einhergehenden Signaleinflüsse nur mit Abschlägen in der Genauigkeit realisierbar. Wird weiters ein Low-Cost-Empfänger, wie er in Smartphones beziehungsweise in Tablets integriert ist, verwendet, sind weitere Einbußen in der Genauigkeit hinzunehmen. Die Inventur von Baumbeständen mittels Smartphone Applikation bringt beide erschwerten Bedingungen mit sich. Seit kurzem ermöglichen einige Endgeräte, ab der Android Version 7.0, den direkt Zugriff auf die Rohdaten des Empfängers. Dies bringt die Möglichkeit mit sich, eine eigene Lösung zur Positionsbestimmung zu berechnen sowie Auswertesoftware zu benutzen. Im Rahmen dieser Masterarbeit wird eine eigene Lösung zur Positionsbestimmung mittels Rohdaten realisiert. Hinzukommend werden die Rohdaten mit der lizenzfreien Software RTKLIB ausgewertet. Weiters wird eine relative Positionsbestimmung durchgeführt. Hierfür wird eine High-Cost Antenne als Referenzstation außerhalb des Waldes verwendet. Diese Lösungen, inklusive der Lösung des Endgerätes, werden anschließend untereinander verglichen. Damit die berechnete Lösung auf einem mobilen Endgerät verwendet werden kann, wird eine Applikation auf Basis von Android 8.0 (Oreo) umgesetzt. In dieser werden die Position sowie diverse Qualitätsparameter ersichtlich sein. Selbstverständlich werden die berechneten Positionen exportiert, um diese weiterverwenden zu können.
Die Positionsbestimmung mittels Satelliten ist in der heutigen Zeit eine gängige Praxis. Die Qualität der Positionslösung hängt jedoch sehr stark von mehreren Faktoren ab. Einerseits ist der verwendete Receiver beziehungsweise die verwendete Antenne ausschlaggebend, sowie die Prozessierung der gemessenen Rohdaten, andererseits spielt die Lage und direkte Umgebung des Empfängers eine große Rolle. Für die bestehende Applikation MOTI, welche von der Fachhochschule Bern entwickelt wurde und zur Inventur von Baumbeständen verwendet wird, soll nun eine Positionsbestimmung mittels GNSS implementiert werden. Die Positionsbestimmung im Wald ist aufgrund der erschwerten Umgebungsbedingung und der dadurch einhergehenden Signaleinflüsse nur mit Abschlägen in der Genauigkeit realisierbar. Wird weiters ein Low-Cost-Empfänger, wie er in Smartphones beziehungsweise in Tablets integriert ist, verwendet, sind weitere Einbußen in der Genauigkeit hinzunehmen. Die Inventur von Baumbeständen mittels Smartphone Applikation bringt beide erschwerten Bedingungen mit sich. Seit kurzem ermöglichen einige Endgeräte, ab der Android Version 7.0, den direkt Zugriff auf die Rohdaten des Empfängers. Dies bringt die Möglichkeit mit sich, eine eigene Lösung zur Positionsbestimmung zu berechnen sowie Auswertesoftware zu benutzen. Im Rahmen dieser Masterarbeit wird eine eigene Lösung zur Positionsbestimmung mittels Rohdaten realisiert. Hinzukommend werden die Rohdaten mit der lizenzfreien Software RTKLIB ausgewertet. Weiters wird eine relative Positionsbestimmung durchgeführt. Hierfür wird eine High-Cost Antenne als Referenzstation außerhalb des Waldes verwendet. Diese Lösungen, inklusive der Lösung des Endgerätes, werden anschließend untereinander verglichen. Damit die berechnete Lösung auf einem mobilen Endgerät verwendet werden kann, wird eine Applikation auf Basis von Android 8.0 (Oreo) umgesetzt. In dieser werden die Position sowie diverse Qualitätsparameter ersichtlich sein. Selbstverständlich werden die berechneten Positionen exportiert, um diese weiterverwenden zu können.
Evaluierung zweier Mobile Mapping Systeme hinsichtlich Autobahnvermessung
Institut für Geodäsie, Technische Universität Graz, 2020
Betreuer: Dipl.-Ing. Dr. Richard Ladstädter
Kurzfassung/Abstract
Mit Mobile-Mapping-Systemen (MMS) sind in letzter Zeit neue Möglichkeiten in der geodätischen Welt entstanden. In einigen Bereichen konnten mit dieser Technologie die herkömmlichen Messmethoden ersetzt werden. Vor diesem Hintergrund besteht die Aufgabe dieser Arbeit, die Genauigkeiten von zwei, auf dem Markt verfügbaren Systemen (Leica Pegasus: Two Ultimate und Riegl VUX-SYS) zu analysieren und festzustellen, ob diese beiden Systeme die Genauigkeitsanforderungen für den Straßenbau erfüllen können. Anstoß zu dieser Masterarbeit war ein Projekt der Firma Vermessung ADP Rinner ZT GmbH für den Auftraggeber ASFINAG. Dieses Projekt umfasste die Erstellung der Planungsunterlagen zur geplanten Fahrspurerweiterung der Autobahn A9 zwischen dem Knoten Graz-West (km 189,5) und der Anschlussstelle Wildon (km 201,5), mit einer Länge von 12 km. Im klassischen Fall werden Bestandsaufnahmen von Autobahnen tachymetrisch durchgeführt, was sehr zeitaufwendig und kostenintensiv ist. Für das gegenständliche Projekt hätte diese Herangehensweise zur Folge gehabt, dass sämtliche Autobahnspuren sequenziell gesperrt hätten werden müssen. Der organisatorische und zeitliche Aufwand wäre dadurch enorm gestiegen und eine Staubildung wäre bei diesem verkehrsreichen Autobahnabschnitt unumgänglich gewesen. Auf Basis dieser Erkenntnisse wurde zur Datenerfassung für dieses Projekt ein MMS herangezogen. Aus technischen Gründen (Kombination einer Vielzahl an Sensoren) besitzen MMS gewisse Fehler. Dementsprechend stellte sich die Frage, ob diese Fehlerabweichungen im geforderten Bereich von ± 3 cm in der Lage und ± 1 cm (1σ) in der Höhe liegen, damit die Projektanforderungen seitens des Auftraggebers erfüllt werden können. Vor dem Hintergrund dieser Fragestellung wurde diese Masterarbeit ins Leben gerufen. Zum Vergleich der Systeme wurde ein Teilabschnitt des Projektbereichs von km 190,050 bis km 193,650 ausgewählt. Unter Berücksichtigung aller in der Masterarbeit dargestellten Erkenntnisse kann festgestellt werden, dass auf Basis der Ergebnisse sowohl das Riegl-MMS als auch das Leica-MMS die Anforderungen für Straßenbauprojekte zur Gänze erfüllen.
Mit Mobile-Mapping-Systemen (MMS) sind in letzter Zeit neue Möglichkeiten in der geodätischen Welt entstanden. In einigen Bereichen konnten mit dieser Technologie die herkömmlichen Messmethoden ersetzt werden. Vor diesem Hintergrund besteht die Aufgabe dieser Arbeit, die Genauigkeiten von zwei, auf dem Markt verfügbaren Systemen (Leica Pegasus: Two Ultimate und Riegl VUX-SYS) zu analysieren und festzustellen, ob diese beiden Systeme die Genauigkeitsanforderungen für den Straßenbau erfüllen können. Anstoß zu dieser Masterarbeit war ein Projekt der Firma Vermessung ADP Rinner ZT GmbH für den Auftraggeber ASFINAG. Dieses Projekt umfasste die Erstellung der Planungsunterlagen zur geplanten Fahrspurerweiterung der Autobahn A9 zwischen dem Knoten Graz-West (km 189,5) und der Anschlussstelle Wildon (km 201,5), mit einer Länge von 12 km. Im klassischen Fall werden Bestandsaufnahmen von Autobahnen tachymetrisch durchgeführt, was sehr zeitaufwendig und kostenintensiv ist. Für das gegenständliche Projekt hätte diese Herangehensweise zur Folge gehabt, dass sämtliche Autobahnspuren sequenziell gesperrt hätten werden müssen. Der organisatorische und zeitliche Aufwand wäre dadurch enorm gestiegen und eine Staubildung wäre bei diesem verkehrsreichen Autobahnabschnitt unumgänglich gewesen. Auf Basis dieser Erkenntnisse wurde zur Datenerfassung für dieses Projekt ein MMS herangezogen. Aus technischen Gründen (Kombination einer Vielzahl an Sensoren) besitzen MMS gewisse Fehler. Dementsprechend stellte sich die Frage, ob diese Fehlerabweichungen im geforderten Bereich von ± 3 cm in der Lage und ± 1 cm (1σ) in der Höhe liegen, damit die Projektanforderungen seitens des Auftraggebers erfüllt werden können. Vor dem Hintergrund dieser Fragestellung wurde diese Masterarbeit ins Leben gerufen. Zum Vergleich der Systeme wurde ein Teilabschnitt des Projektbereichs von km 190,050 bis km 193,650 ausgewählt. Unter Berücksichtigung aller in der Masterarbeit dargestellten Erkenntnisse kann festgestellt werden, dass auf Basis der Ergebnisse sowohl das Riegl-MMS als auch das Leica-MMS die Anforderungen für Straßenbauprojekte zur Gänze erfüllen.
Realisierung einer Sensorfusion mittels lose gekoppeltem Kalmanfilter
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2020
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Durch eine Automatisierung landwirtschaftlicher Ernteprozesse (u.a. durch vollautomatische Lenksysteme) kann der Ertrag optimiert werden. Diese Realisierung eines vollautomatischen Lenksystems verlangt jedoch einige Grundvoraussetzungen, die zuvor gelöst werden müssen: Dazu zählt eine zuverlässige, genaue und stabile Positionslösung der landwirtschaftlichen Maschine. Um diese Voraussetzungen zu erfüllen, werden unterschiedliche Sensoren an der Maschine angebracht. Dadurch erhöht sich vor allem die Stabilität der Positionslösung, da vereinzelte Sensorausfälle durch andere Sensorik kompensiert werden kann. Um diese Kompensation aktiv durchführen zu können, findet eine geeignete Verrechnung der Sensorik mittels Kalmanfilter statt. Als Sensorik wird dabei eine Kombination aus Globalen Satellitennavigationssystemen (GNSS), Beschleunigungs-, Drehraten-, Lenkwinkelsensoren und Odometrie verwendet. Die drei Erstgenannten werden häufig miteinander kombiniert, wohingegen der Einfluss der beiden letztgenannten Sensoren auf die Positionslösung einer landwirtschaftlichen Maschine aufgrund von kaum vorhandenen Erfahrungswerten innerhalb dieser Arbeit untersucht und analysiert wird.
Durch eine Automatisierung landwirtschaftlicher Ernteprozesse (u.a. durch vollautomatische Lenksysteme) kann der Ertrag optimiert werden. Diese Realisierung eines vollautomatischen Lenksystems verlangt jedoch einige Grundvoraussetzungen, die zuvor gelöst werden müssen: Dazu zählt eine zuverlässige, genaue und stabile Positionslösung der landwirtschaftlichen Maschine. Um diese Voraussetzungen zu erfüllen, werden unterschiedliche Sensoren an der Maschine angebracht. Dadurch erhöht sich vor allem die Stabilität der Positionslösung, da vereinzelte Sensorausfälle durch andere Sensorik kompensiert werden kann. Um diese Kompensation aktiv durchführen zu können, findet eine geeignete Verrechnung der Sensorik mittels Kalmanfilter statt. Als Sensorik wird dabei eine Kombination aus Globalen Satellitennavigationssystemen (GNSS), Beschleunigungs-, Drehraten-, Lenkwinkelsensoren und Odometrie verwendet. Die drei Erstgenannten werden häufig miteinander kombiniert, wohingegen der Einfluss der beiden letztgenannten Sensoren auf die Positionslösung einer landwirtschaftlichen Maschine aufgrund von kaum vorhandenen Erfahrungswerten innerhalb dieser Arbeit untersucht und analysiert wird.
Studie für ein campusweites Positionierungs- und Informationssystem im Indoor- und Outdoorbereich
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2020
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Günther Retscher
Kurzfassung/Abstract
Der Technischen Universität Wien stehen auf einer Fläche von 269.000 m² in etwa 12.000 Räume in 30 Gebäuden zur Verfügung. Bei einer solch großen Anzahl an Gebäuden und Räumen kann ein Positionierungs- und Navigationssystem ein hilfreiches Werkzeug sein, um sich am Campus zu orientieren. Da die satellitengestützte Positionierung in einem Gebäude aufgrund der fehlenden Sichtverbindung zu den Satelliten allerdings nicht möglich ist, muss für die Indoor-Positionierung auf andere Technologien zurückgegriffen werden. Zahlreiche Methoden und Technologien wurden daher bereits entwickelt. Eine dieser Technologien stützt sich auf die Verwendung von WLAN-Signalen, die mit handelsüblichen mobilen Endgeräten, wie beispielsweise Smartphones, empfangen werden können. Die Positionierung mit Hilfe eines Smartphones und WLAN-Signalen stellt allerdings vor allem in großen und komplexen Gebäuden einige Herausforderungen dar. Im Rahmen dieser Diplomarbeit soll daher eine Studie für ein Positionierungs- und Informationssystem an der TU Wien durchgeführt werden. Die Indoor-Positionierung wird dabei mittels WLAN-Fingerprinting durchgeführt. Dafür werden in der sogenannten Offline-Phase zunächst WLAN-Signalstärken der umliegenden Access Points an Referenzpunkten gemessen und in eine Datenbank abgespeichert. In der Folge wird daraus eine sogenannte Radio Map erzeugt, mit der anschließend in der Online-Phase die aktuellen Messungen verglichen werden. Die Position mit der besten Übereinstimmung ergibt dann die gesuchte Position. Für diesen Zweck werden WLAN-Signalstärken am Karlsplatz, in der Universitätsbibliothek sowie im Freihaus-Gebäude unter realen Bedingungen gemessen. Die Messungen werden dabei statisch, kinematisch und im Stop-and-Go Modus mit sechs verschiedenen Smartphones durchgeführt. Anschließend wird die Position mittels eines probabilistischen Ansatzes basierend auf der Berechnung der Mahalanobis-Distanz bestimmt. Die für die Messungen verwendeten Smartphones empfangen die Signalstärken unterschiedlich stark, weshalb für jedes Smartphone eine Kalibrierung durchgeführt wird. Mit Hilfe einer zusätzlichen 24-Stunden Messung werden die Schwankungen der WLAN-Signale analysiert. Für den Outdoorbereich erfolgt eine Positionierung mittels GNSS. Die Ergebnisse der Langzeitmessung zeigen große zeitliche Variationen der Signalstärken und Signalrauschen. Es wurde festgestellt, dass tagsüber Schwankungen von bis zu ±5 dBm auftreten können. In der Nacht sind die Signale wesentlich stabiler. Die Analyse der Offline-Messungen zeigt, dass überall ausreichend stabile Signale vorhanden sind, um eine Positionsbestimmung an der TU Wien mittels WLAN-Fingerprinting durchzuführen. Bei den verschiedenen Messverfahren in der Offline-Phase zeigt sich, dass die jeweiligen Datenbanken eine große Ähnlichkeit haben und daher kombiniert werden können. Die Abweichungen der berechneten Positionen zu den wahren Positionen liegen in der Bibliothek bei 1,5 m bis 6 m und im Freihaus bei 1 m bis 3 m. Ein Grund für die bessere Genauigkeit im Freihaus ist die höhere Anzahl und Dichte an Access Points. In der Bibliothek zeigen sich außerdem Unterschiede in einzelnen Bereichen. Bei den Online-Messungen erzielen die Stop-and-Go Messungen mit einem durchschnittlichen Positionierungsfehler von 2,5 m bzw. 1,4 m geringfügig bessere Ergebnisse als die statischen und kinematischen Online-Messungen. Die abgegangenen Trajektorien konnten in beiden Messgebieten gut rekonstruiert werden. Durch die Kalibrierung der Smartphones konnte die geräteabhängige Empfangsempfindlichkeit ausreichend ausgeglichen werden, wodurch sich keine großen Unterschiede bei den verschiedenen Smartphones bezüglich der erreichten Genauigkeiten ergeben. Einzig bei den kinematischen Messungen ist eine Abhängigkeit aufgrund der unterschiedlichen Dauer eines WLAN-Scans feststellbar. Diese liegt im Durchschnitt bei 2,4 s bis 4,1 s und führt zu unterschiedlichen Genauigkeiten je nach verwendetem Smartphone, da bei einer längeren Scandauer weniger Messwerte für eine Interpolation zur Verfügung stehen. Die GNSS-Messungen am Karlsplatz ergaben eine durchschnittliche Positionierungsgenauigkeit von 8 m.
Der Technischen Universität Wien stehen auf einer Fläche von 269.000 m² in etwa 12.000 Räume in 30 Gebäuden zur Verfügung. Bei einer solch großen Anzahl an Gebäuden und Räumen kann ein Positionierungs- und Navigationssystem ein hilfreiches Werkzeug sein, um sich am Campus zu orientieren. Da die satellitengestützte Positionierung in einem Gebäude aufgrund der fehlenden Sichtverbindung zu den Satelliten allerdings nicht möglich ist, muss für die Indoor-Positionierung auf andere Technologien zurückgegriffen werden. Zahlreiche Methoden und Technologien wurden daher bereits entwickelt. Eine dieser Technologien stützt sich auf die Verwendung von WLAN-Signalen, die mit handelsüblichen mobilen Endgeräten, wie beispielsweise Smartphones, empfangen werden können. Die Positionierung mit Hilfe eines Smartphones und WLAN-Signalen stellt allerdings vor allem in großen und komplexen Gebäuden einige Herausforderungen dar. Im Rahmen dieser Diplomarbeit soll daher eine Studie für ein Positionierungs- und Informationssystem an der TU Wien durchgeführt werden. Die Indoor-Positionierung wird dabei mittels WLAN-Fingerprinting durchgeführt. Dafür werden in der sogenannten Offline-Phase zunächst WLAN-Signalstärken der umliegenden Access Points an Referenzpunkten gemessen und in eine Datenbank abgespeichert. In der Folge wird daraus eine sogenannte Radio Map erzeugt, mit der anschließend in der Online-Phase die aktuellen Messungen verglichen werden. Die Position mit der besten Übereinstimmung ergibt dann die gesuchte Position. Für diesen Zweck werden WLAN-Signalstärken am Karlsplatz, in der Universitätsbibliothek sowie im Freihaus-Gebäude unter realen Bedingungen gemessen. Die Messungen werden dabei statisch, kinematisch und im Stop-and-Go Modus mit sechs verschiedenen Smartphones durchgeführt. Anschließend wird die Position mittels eines probabilistischen Ansatzes basierend auf der Berechnung der Mahalanobis-Distanz bestimmt. Die für die Messungen verwendeten Smartphones empfangen die Signalstärken unterschiedlich stark, weshalb für jedes Smartphone eine Kalibrierung durchgeführt wird. Mit Hilfe einer zusätzlichen 24-Stunden Messung werden die Schwankungen der WLAN-Signale analysiert. Für den Outdoorbereich erfolgt eine Positionierung mittels GNSS. Die Ergebnisse der Langzeitmessung zeigen große zeitliche Variationen der Signalstärken und Signalrauschen. Es wurde festgestellt, dass tagsüber Schwankungen von bis zu ±5 dBm auftreten können. In der Nacht sind die Signale wesentlich stabiler. Die Analyse der Offline-Messungen zeigt, dass überall ausreichend stabile Signale vorhanden sind, um eine Positionsbestimmung an der TU Wien mittels WLAN-Fingerprinting durchzuführen. Bei den verschiedenen Messverfahren in der Offline-Phase zeigt sich, dass die jeweiligen Datenbanken eine große Ähnlichkeit haben und daher kombiniert werden können. Die Abweichungen der berechneten Positionen zu den wahren Positionen liegen in der Bibliothek bei 1,5 m bis 6 m und im Freihaus bei 1 m bis 3 m. Ein Grund für die bessere Genauigkeit im Freihaus ist die höhere Anzahl und Dichte an Access Points. In der Bibliothek zeigen sich außerdem Unterschiede in einzelnen Bereichen. Bei den Online-Messungen erzielen die Stop-and-Go Messungen mit einem durchschnittlichen Positionierungsfehler von 2,5 m bzw. 1,4 m geringfügig bessere Ergebnisse als die statischen und kinematischen Online-Messungen. Die abgegangenen Trajektorien konnten in beiden Messgebieten gut rekonstruiert werden. Durch die Kalibrierung der Smartphones konnte die geräteabhängige Empfangsempfindlichkeit ausreichend ausgeglichen werden, wodurch sich keine großen Unterschiede bei den verschiedenen Smartphones bezüglich der erreichten Genauigkeiten ergeben. Einzig bei den kinematischen Messungen ist eine Abhängigkeit aufgrund der unterschiedlichen Dauer eines WLAN-Scans feststellbar. Diese liegt im Durchschnitt bei 2,4 s bis 4,1 s und führt zu unterschiedlichen Genauigkeiten je nach verwendetem Smartphone, da bei einer längeren Scandauer weniger Messwerte für eine Interpolation zur Verfügung stehen. Die GNSS-Messungen am Karlsplatz ergaben eine durchschnittliche Positionierungsgenauigkeit von 8 m.
Erkennung von fußballspezifischen Aktivitäten mithilfe von kostengünstigen inertialen Messeinheiten
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2020
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Fußball zählt zu einer der populärsten Sportarten der Welt. Folglich ist die Leistungsanalyse von Fußballteams zu einem zentralen Thema geworden. Verschiedene Parameter, wie die Anzahl der Pässe, Schüsse oder Sprints können herangezogen werden um die Spielqualität zu evaluieren. Die derzeitigen Systeme basieren auf Videoanalysen, sind kostenintensiv und nur für Profiteams leistbar. Die Verwendung von Wearable für Leistungsanalysen bietet eine kostengünstige Alternative zur videobasierten Analyse. Diese Masterarbeit behandelt die Erkennung simpler, fußballspezifischer Aktivitäten basierend auf MEMS-Beschleunigungsdaten. Die definierten Bewegungen sind Stehen, Gehen, Laufen, Passen und Schießen. Die Datenerfassung erfolgt mithilfe von zwei inertialen Messeinheiten, die jeweils an einem Schienbeinschützer angebracht sind. Die Analyseverfahren basieren auf Techniken des maschinellen Lernens. Features wurden im Zeit- und Frequenzbereich (Wavelet-Analyse) ausgewählt. Zwei verschiedene Algorithmen zur Dimensionsreduktion wurden miteinander verglichen, nämlich die Hauptkomponentenanalyse und die linearen Diskriminanzanalyse. Ein Klassifikationsschema zur Erkennung der oben genannten Aktivitäten wurde entwickelt und an realen Daten getestet. Die Auswertung zeigte, dass Logistic Regression, Support Vektor Maschine und Random Forest in Kombination mit der linearen Diskriminanzanalyse die anderen Ansätze übertrafen. Alle Schüsse und Pässe wurden erkannt. Nur einige wenige Instanzen wurden falsch klassifiziert. Diese Fehlklassifizierungen fanden in den Übergangsbereichen zwischen Stehen, Gehen und Laufen statt. Es wurden also keine grundlegenden Fehler gemacht. Die beste Gesamtleistung lieferten Logistic Regression und Random Forest mit einer Gesamtgenauigkeit von 95%, einer Macro-Precision von 97% und einem Macro-Recall von 96%. Es wurde gezeigt, dass das vorgeschlagene Klassifikationsschema echtzeitfähig ist.
Fußball zählt zu einer der populärsten Sportarten der Welt. Folglich ist die Leistungsanalyse von Fußballteams zu einem zentralen Thema geworden. Verschiedene Parameter, wie die Anzahl der Pässe, Schüsse oder Sprints können herangezogen werden um die Spielqualität zu evaluieren. Die derzeitigen Systeme basieren auf Videoanalysen, sind kostenintensiv und nur für Profiteams leistbar. Die Verwendung von Wearable für Leistungsanalysen bietet eine kostengünstige Alternative zur videobasierten Analyse. Diese Masterarbeit behandelt die Erkennung simpler, fußballspezifischer Aktivitäten basierend auf MEMS-Beschleunigungsdaten. Die definierten Bewegungen sind Stehen, Gehen, Laufen, Passen und Schießen. Die Datenerfassung erfolgt mithilfe von zwei inertialen Messeinheiten, die jeweils an einem Schienbeinschützer angebracht sind. Die Analyseverfahren basieren auf Techniken des maschinellen Lernens. Features wurden im Zeit- und Frequenzbereich (Wavelet-Analyse) ausgewählt. Zwei verschiedene Algorithmen zur Dimensionsreduktion wurden miteinander verglichen, nämlich die Hauptkomponentenanalyse und die linearen Diskriminanzanalyse. Ein Klassifikationsschema zur Erkennung der oben genannten Aktivitäten wurde entwickelt und an realen Daten getestet. Die Auswertung zeigte, dass Logistic Regression, Support Vektor Maschine und Random Forest in Kombination mit der linearen Diskriminanzanalyse die anderen Ansätze übertrafen. Alle Schüsse und Pässe wurden erkannt. Nur einige wenige Instanzen wurden falsch klassifiziert. Diese Fehlklassifizierungen fanden in den Übergangsbereichen zwischen Stehen, Gehen und Laufen statt. Es wurden also keine grundlegenden Fehler gemacht. Die beste Gesamtleistung lieferten Logistic Regression und Random Forest mit einer Gesamtgenauigkeit von 95%, einer Macro-Precision von 97% und einem Macro-Recall von 96%. Es wurde gezeigt, dass das vorgeschlagene Klassifikationsschema echtzeitfähig ist.
Road Data-Modelling for Autonomous Driving
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2020
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Für die Automobilindustrie stellt das Thema autonomes Fahren eines der vielversprechendsten Herausforderungen dar. Generell sind autonome Fahrzeuge standardgemäß mit mehreren Sensortechniken ausgestattet. Dabei unterstützen Kameras, RADAR- und auch LIDAR-Techniken die Fahrzeuge bei der Umsetzung von autonomem Fahren. Obwohl diese Sensoren Fahrspuren und Objekte auf und in der Nähe der Straße erkennen können, ist das Verständnis von deren Bedeutungen nicht vorhanden. Dazu ist es erforderlich durch eine sogenannte Wissensrepräsentation der Daten die Fahrumgebung näher zu beschreiben. Mittels Ontologie Frameworks kann die Wissensrepräsentation der realen Welt umgesetzt werden, welche hauptsächlich aus den Eigenschaften und den Beziehungen zwischen Klassen und Daten besteht. Für die Beschreibung der Straße wurde daher eine entsprechende Ontologie erstellt. Diese repräsentiert Wissen, welches aus Open-Source-Daten wie OSM abgeleitet wurde. Weitere Aufgaben bei der Durchführung von Simulationen für autonomes Fahren setzen ein ausreichendes Straßendatennetz voraus. OpenDRIVE repräsentiert eine gängige Spezifikation zur Beschreibung der Daten für solch ein Straßennetz und einen Standard für verschiedene Fahrsimulatoren.
Für die Automobilindustrie stellt das Thema autonomes Fahren eines der vielversprechendsten Herausforderungen dar. Generell sind autonome Fahrzeuge standardgemäß mit mehreren Sensortechniken ausgestattet. Dabei unterstützen Kameras, RADAR- und auch LIDAR-Techniken die Fahrzeuge bei der Umsetzung von autonomem Fahren. Obwohl diese Sensoren Fahrspuren und Objekte auf und in der Nähe der Straße erkennen können, ist das Verständnis von deren Bedeutungen nicht vorhanden. Dazu ist es erforderlich durch eine sogenannte Wissensrepräsentation der Daten die Fahrumgebung näher zu beschreiben. Mittels Ontologie Frameworks kann die Wissensrepräsentation der realen Welt umgesetzt werden, welche hauptsächlich aus den Eigenschaften und den Beziehungen zwischen Klassen und Daten besteht. Für die Beschreibung der Straße wurde daher eine entsprechende Ontologie erstellt. Diese repräsentiert Wissen, welches aus Open-Source-Daten wie OSM abgeleitet wurde. Weitere Aufgaben bei der Durchführung von Simulationen für autonomes Fahren setzen ein ausreichendes Straßendatennetz voraus. OpenDRIVE repräsentiert eine gängige Spezifikation zur Beschreibung der Daten für solch ein Straßennetz und einen Standard für verschiedene Fahrsimulatoren.
Vergleich der EOP aus zwei unterschiedlichen VLBI Netzwerken der CONT17 Kampagne
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2020
Betreuer: Dipl.-Ing. Dr. Sigrid Böhm
Kurzfassung/Abstract
Die Very Long Baseline Interferometry (VLBI) ist das einzige geodätische Weltraumverfahren, dass den vollständigen Satz der fünf Erdorientierungsparameter (EOP; Polbewegung, dUT1 und celestial pole offsets - CPO) durch die Beobachtung von extragalaktischen Radioquellen (Quasaren) bestimmen kann. Diese fünf EOP werden für die Transformation zwischen erdfesten Koordinatenrahmen (TRF) und himmelsfesten Koordinatenrahmen (CRF) benötigt. Aufgrund der fehlenden Alternativen für die Bestimmung aller fünf EOP zusammen, ist es von enormer Wichtigkeit diese mit höchster Genauigkeit zu bestimmen. Die Sensitivität auf die EOP hängt unter anderem von der Geometrie der Verteilung der VLBI Antennen ab. Daher ist die Wahl des Beobachtungsnetzwerkes ein zu beachtender Aspekt. Die EOP werden in dieser Diplomarbeit mit den Daten der CONT17 Beobachtungskampagne bestimmt und analysiert. Das Besondere dieser Kampagne ist die Beobachtung mit zwei unabhängigen Beobachtungsnetzwerken (XA und XB), die sich aufgrund der geographischen Verteilung der Beobachtungsstationen unterscheiden. Das Ziel dieser Arbeit ist es, anhand der Beobachtungsdaten dieser zwei Netzwerke, die EOP zu bestimmen, hinsichtlich ihrer Genauigkeit zu untersuchen und die Abweichungen der EOP aus XA und XB (Biases) darzulegen. Es werden verschiedene Auswertungsstrategien angewandt, um ein bestmögliches Ergebnis zu erzielen. Mit der single session Lösung ergeben sich teils sehr große Offsets mit bis zu ca. 240 µas zwischen den beiden Netzwerken, die sich durch den Ausschluss der Station HOBART26 von einem Beobachtungstag verringern lassen. In dieser Arbeit werden verschiedene Methoden zur Verbesserung der Übereinstimmung angewandt, wie z.B. das Schätzen des feuchten Anteils der Troposphäre in einem geringeren Intervall, oder das Festsetzen der Nutationsparameter auf die a priori Werte. Generell bekommt man mit der Einzellösung sowohl größere formale Fehler als auch größere Biases aller fünf EOP. Mit dem Schätzen der EOP in einer globalen Lösung kann beides verkleinert werden. Die resultierenden mittleren Abweichungen liegen im Bereich von ̴125 µas(±) für dUT1 und die Polkoordinaten und bei ̴-40 µas für die CPO. Die Standardabweichungen der EOP Differenzen bewegen sich zwischen 60 und 100 µas. Es lässt sich aufgrund der Ergebnisse allgemein eine deutliche Abhängigkeit der Biases und der formalen Fehler der EOP von der unterschiedlichen Verteilung der VLBI Stationen erkennen. Mit den Aussagen von zwei vorhergehenden Arbeiten, die ebenfalls die Daten der CONT17 Kampagne analysieren, wird eine gute Übereinstimmung gefunden. Das XB-Netzwerk ist aufgrund der besseren Nord-Süd Ausdehnung deutlich sensitiver auf die Polparameter als das XA-Netzwerk. Für den Parameter dUT1 bzw. LoD ist aufgrund der besseren Ost-West Ausdehnung das XA-Netzwerk sensitiver. Dies zeigt sich insbesondere im Vergleich mit einer Lösung aus den Daten von globalen Satellitennavigationssystemen (GNSS).
Die Very Long Baseline Interferometry (VLBI) ist das einzige geodätische Weltraumverfahren, dass den vollständigen Satz der fünf Erdorientierungsparameter (EOP; Polbewegung, dUT1 und celestial pole offsets - CPO) durch die Beobachtung von extragalaktischen Radioquellen (Quasaren) bestimmen kann. Diese fünf EOP werden für die Transformation zwischen erdfesten Koordinatenrahmen (TRF) und himmelsfesten Koordinatenrahmen (CRF) benötigt. Aufgrund der fehlenden Alternativen für die Bestimmung aller fünf EOP zusammen, ist es von enormer Wichtigkeit diese mit höchster Genauigkeit zu bestimmen. Die Sensitivität auf die EOP hängt unter anderem von der Geometrie der Verteilung der VLBI Antennen ab. Daher ist die Wahl des Beobachtungsnetzwerkes ein zu beachtender Aspekt. Die EOP werden in dieser Diplomarbeit mit den Daten der CONT17 Beobachtungskampagne bestimmt und analysiert. Das Besondere dieser Kampagne ist die Beobachtung mit zwei unabhängigen Beobachtungsnetzwerken (XA und XB), die sich aufgrund der geographischen Verteilung der Beobachtungsstationen unterscheiden. Das Ziel dieser Arbeit ist es, anhand der Beobachtungsdaten dieser zwei Netzwerke, die EOP zu bestimmen, hinsichtlich ihrer Genauigkeit zu untersuchen und die Abweichungen der EOP aus XA und XB (Biases) darzulegen. Es werden verschiedene Auswertungsstrategien angewandt, um ein bestmögliches Ergebnis zu erzielen. Mit der single session Lösung ergeben sich teils sehr große Offsets mit bis zu ca. 240 µas zwischen den beiden Netzwerken, die sich durch den Ausschluss der Station HOBART26 von einem Beobachtungstag verringern lassen. In dieser Arbeit werden verschiedene Methoden zur Verbesserung der Übereinstimmung angewandt, wie z.B. das Schätzen des feuchten Anteils der Troposphäre in einem geringeren Intervall, oder das Festsetzen der Nutationsparameter auf die a priori Werte. Generell bekommt man mit der Einzellösung sowohl größere formale Fehler als auch größere Biases aller fünf EOP. Mit dem Schätzen der EOP in einer globalen Lösung kann beides verkleinert werden. Die resultierenden mittleren Abweichungen liegen im Bereich von ̴125 µas(±) für dUT1 und die Polkoordinaten und bei ̴-40 µas für die CPO. Die Standardabweichungen der EOP Differenzen bewegen sich zwischen 60 und 100 µas. Es lässt sich aufgrund der Ergebnisse allgemein eine deutliche Abhängigkeit der Biases und der formalen Fehler der EOP von der unterschiedlichen Verteilung der VLBI Stationen erkennen. Mit den Aussagen von zwei vorhergehenden Arbeiten, die ebenfalls die Daten der CONT17 Kampagne analysieren, wird eine gute Übereinstimmung gefunden. Das XB-Netzwerk ist aufgrund der besseren Nord-Süd Ausdehnung deutlich sensitiver auf die Polparameter als das XA-Netzwerk. Für den Parameter dUT1 bzw. LoD ist aufgrund der besseren Ost-West Ausdehnung das XA-Netzwerk sensitiver. Dies zeigt sich insbesondere im Vergleich mit einer Lösung aus den Daten von globalen Satellitennavigationssystemen (GNSS).
Validation of high resolution soil moisture products over Austria
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2020
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dr. Mariette Vreugdenhil MSc
Kurzfassung/Abstract
Soil moisture plays an important role in the water, carbon and energy cycle. More and more applications, i.e. in agriculture, climate research, environmental science, need high resolution soil moisture estimates. The objective of this thesis is to validate high resolution soil moisture products over Austria. In this study an existing approach using in situ measurements as control data was extended to a novel approach where groundwater observations are used to evaluate ensemble soil moisture dataset. This work was developed within the BMon project (Bodenfeuchte-Monitoring). The reference data used in this analysis consists of three in situ soil moisture networks: Hoal, WegenerNet and BMNT. The in situ data was compared against S1ASCAT data, hydrological, meteorological and agrometeorological model datasets as well as the ensemble product. The ensemble product was created by combining S1ASCAT and three model datasets. The groundwater measurements, collected from over 2600 sites across Austria, were evaluated against the ensemble product (RZSM), which represents a combination of the individual products that is expected to deliver superior soil moisture estimates. After several pre-processing steps, the Pearson correlation coefficient and uRMSD were estimated to investigate the relationships between in situ measurements against S1ASCAT and model datasets. In the novel validation approach, the Spearman correlation coefficient between the ensemble dataset and groundwater observations was calculated and the effect of soil porosity and diversity in land cover types on the changes in groundwater table was investigated. The results show that the quality of high resolution soil moisture products is driven by several parameters as precipitation events (as the main source of soil moisture content) as well as soil porosity due to its effect on the soil infiltration rate. They indicate that the response delays (lags) are found at deeper groundwater layers owing to the slower water infiltration through the soil. High correlations up to 0.8 are found in most cases by comparing ensemble datasets with groundwater measurements, where the groundwater layer depth ranges up to 6 m. When validating the in situ observations of Hoal network, the correlations of Rp up to 0.7 indicate a good agreement. Slightly lower correlations up to 0.5 are found when comparing with WegenerNet network and BMNT network showed slightly higher correlations with ensemble- and agrometeorological model dataset. While positive biases of the satellite observations during the growing season are observed, the capability to record small-scale soil moisture changes from rainfall events is apparent. Future work should address the effects of soil porosity and heterogeneity in land cover types on soil moisture as well as on groundwater. This study provides the framework for future studies to assess the performance of high resolution Earth Observation data in comparison to in situ measurements and groundwater observations.
Soil moisture plays an important role in the water, carbon and energy cycle. More and more applications, i.e. in agriculture, climate research, environmental science, need high resolution soil moisture estimates. The objective of this thesis is to validate high resolution soil moisture products over Austria. In this study an existing approach using in situ measurements as control data was extended to a novel approach where groundwater observations are used to evaluate ensemble soil moisture dataset. This work was developed within the BMon project (Bodenfeuchte-Monitoring). The reference data used in this analysis consists of three in situ soil moisture networks: Hoal, WegenerNet and BMNT. The in situ data was compared against S1ASCAT data, hydrological, meteorological and agrometeorological model datasets as well as the ensemble product. The ensemble product was created by combining S1ASCAT and three model datasets. The groundwater measurements, collected from over 2600 sites across Austria, were evaluated against the ensemble product (RZSM), which represents a combination of the individual products that is expected to deliver superior soil moisture estimates. After several pre-processing steps, the Pearson correlation coefficient and uRMSD were estimated to investigate the relationships between in situ measurements against S1ASCAT and model datasets. In the novel validation approach, the Spearman correlation coefficient between the ensemble dataset and groundwater observations was calculated and the effect of soil porosity and diversity in land cover types on the changes in groundwater table was investigated. The results show that the quality of high resolution soil moisture products is driven by several parameters as precipitation events (as the main source of soil moisture content) as well as soil porosity due to its effect on the soil infiltration rate. They indicate that the response delays (lags) are found at deeper groundwater layers owing to the slower water infiltration through the soil. High correlations up to 0.8 are found in most cases by comparing ensemble datasets with groundwater measurements, where the groundwater layer depth ranges up to 6 m. When validating the in situ observations of Hoal network, the correlations of Rp up to 0.7 indicate a good agreement. Slightly lower correlations up to 0.5 are found when comparing with WegenerNet network and BMNT network showed slightly higher correlations with ensemble- and agrometeorological model dataset. While positive biases of the satellite observations during the growing season are observed, the capability to record small-scale soil moisture changes from rainfall events is apparent. Future work should address the effects of soil porosity and heterogeneity in land cover types on soil moisture as well as on groundwater. This study provides the framework for future studies to assess the performance of high resolution Earth Observation data in comparison to in situ measurements and groundwater observations.
Gemeinsame Schätzung von B-Spline-Kontrollpunkten und -Kurvenparametern unter Berücksichtigung von Ungleichungsrestriktionen
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2020
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.Ass. Dr. Corinna Harmening MSc
Kurzfassung/Abstract
Bedingt durch die Einführung von terrestrischen Laserscannern ändern sich die Auswertestrategien in der Ingenieurgeodäsie von punktweisen zu flächenhaften Ansätzen. Freiformflächen wie B-Splines haben sich als geeignetes Werkzeug zur Modellierung von Laserscanner-Punktwolken erwiesen. Sie bilden die Grundlage für eine flächenhafte Datenanalyse, insbesondere die flächenhafte Deformationsanalyse. Eine Modellierung einzelner Punktwolken mit Hilfe von B-Spline-Flächen wurde bereits von Harmening und Neuner (2015) durchgeführt. Jedoch stellen Harmening und Neuner (2017) fest, dass die dort berechneten Parameter der Beobachtungen (Flächenparameter) die geschätzte B-Spline-Fläche wesentlich beeinflussen. Sie folgern, dass, um einen statistischen Vergleich zwischen zwei B-Spline-Flächen möglich zu machen, eine konsistente Parametrisierung der Flächen notwendig sei. Die Bestimmung von vergleichbaren B-Spline-Flächen soll mit Hilfe einer gemeinsamen Schätzung von Kontrollpunkten und Flächenparametern erfolgen. Um erste Erkenntnisse einer solchen Ausgleichung zu gewinnen, ist das Ziel dieser Arbeit dieses Verfahren zuerst auf die mathematisch einfachere B-Spline-Kurve anzuwenden. Die gemeinsame Ausgleichung führt dazu, dass Ungleichungsrestriktionen für die Kurvenparameter eingeführt werden müssen, um deren Eigenschaft der Monotonie beizubehalten, sowie diese in ihrem Definitionsbereich [0, 1] zu halten. Die Ausgleichung mit Ungleichungsrestriktionen kann in ein lineares Komplementaritätsproblem übergeführt und gelöst werden. Zur Verifikation wird der neu entwickelte Algorithmus auf simulierte Kurven-Datensätze angewandt und mit dem Standardverfahren der Approximation von Kurven und der intrinsischen Parametrisierung auf Basis von zwei eingeführten Vergleichswerten verglichen. Ein statistischer Vergleich der Verfahren ist aufgrund mehrfacher Realisierungen einer Kurve möglich. Der neue Algorithmus zeigt eine deutliche Verbesserung des Approximationsergebnisses gegenüber dem Standardverfahren. Meist erweist sich der neu entwickelte Algorithmus auch besser als die Methode der intrinsischen Parametrisierung, insbesondere auf die Güte der geschätzten Kurvenparameter und die kürzere Rechenzeit. Weiter kann festgestellt werden, dass sich durch Hinzunahme von Beobachtungen das Ergebnis einer Kurven-Approximation für den neuen Algorithmus deutlich verbessert. Abschließend kann durch Änderung der verwendeten Diskretisierungsmethode gefolgert werden, dass die Güte der Näherungswerte der Kontrollpunkte und Kurvenparameter wesentlichen Einfluss auf das Ergebnis einer Approximation hat.
Bedingt durch die Einführung von terrestrischen Laserscannern ändern sich die Auswertestrategien in der Ingenieurgeodäsie von punktweisen zu flächenhaften Ansätzen. Freiformflächen wie B-Splines haben sich als geeignetes Werkzeug zur Modellierung von Laserscanner-Punktwolken erwiesen. Sie bilden die Grundlage für eine flächenhafte Datenanalyse, insbesondere die flächenhafte Deformationsanalyse. Eine Modellierung einzelner Punktwolken mit Hilfe von B-Spline-Flächen wurde bereits von Harmening und Neuner (2015) durchgeführt. Jedoch stellen Harmening und Neuner (2017) fest, dass die dort berechneten Parameter der Beobachtungen (Flächenparameter) die geschätzte B-Spline-Fläche wesentlich beeinflussen. Sie folgern, dass, um einen statistischen Vergleich zwischen zwei B-Spline-Flächen möglich zu machen, eine konsistente Parametrisierung der Flächen notwendig sei. Die Bestimmung von vergleichbaren B-Spline-Flächen soll mit Hilfe einer gemeinsamen Schätzung von Kontrollpunkten und Flächenparametern erfolgen. Um erste Erkenntnisse einer solchen Ausgleichung zu gewinnen, ist das Ziel dieser Arbeit dieses Verfahren zuerst auf die mathematisch einfachere B-Spline-Kurve anzuwenden. Die gemeinsame Ausgleichung führt dazu, dass Ungleichungsrestriktionen für die Kurvenparameter eingeführt werden müssen, um deren Eigenschaft der Monotonie beizubehalten, sowie diese in ihrem Definitionsbereich [0, 1] zu halten. Die Ausgleichung mit Ungleichungsrestriktionen kann in ein lineares Komplementaritätsproblem übergeführt und gelöst werden. Zur Verifikation wird der neu entwickelte Algorithmus auf simulierte Kurven-Datensätze angewandt und mit dem Standardverfahren der Approximation von Kurven und der intrinsischen Parametrisierung auf Basis von zwei eingeführten Vergleichswerten verglichen. Ein statistischer Vergleich der Verfahren ist aufgrund mehrfacher Realisierungen einer Kurve möglich. Der neue Algorithmus zeigt eine deutliche Verbesserung des Approximationsergebnisses gegenüber dem Standardverfahren. Meist erweist sich der neu entwickelte Algorithmus auch besser als die Methode der intrinsischen Parametrisierung, insbesondere auf die Güte der geschätzten Kurvenparameter und die kürzere Rechenzeit. Weiter kann festgestellt werden, dass sich durch Hinzunahme von Beobachtungen das Ergebnis einer Kurven-Approximation für den neuen Algorithmus deutlich verbessert. Abschließend kann durch Änderung der verwendeten Diskretisierungsmethode gefolgert werden, dass die Güte der Näherungswerte der Kontrollpunkte und Kurvenparameter wesentlichen Einfluss auf das Ergebnis einer Approximation hat.
Verschiebungsmessungen im Tunnelbau mit automatisierten photogrammetrischen Methoden
Department für Geodäsie und Geoinformation, Forschungsgruppen Photogrammetrie und Fernerkundung, Technische Universität Wien, 2020
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Norbert Pfeifer, Dipl.-Ing. Wilfried Karel
Kurzfassung/Abstract
Beim Tunnelbau wird als Stand der Technik eine dreidimensionale geodätische Verschiebungsmessung mit Präzessionstotalstation durchgeführt (OGG, 2014, Wulf Schubert, 2004). Ziel derselben ist es, die Bewegungen der Tunnelschale in den drei Raumrichtungen aufzuzeigen. Aus geodätischer Sicht wird bei dieser 3D-Verschiebungsmessung die Bewegung von Punkten bestimmt. In dieser Arbeit wird die Verschiebungsmessung um ein automatisiertes, photogrammetrisches Modell erweitert, mit dem einzelne Verschiebungspunkte bestimmt werden können. Die Modelle der Geotechnik benötigen die vollständige Messung aller Punkte im definierten Bereich, um Aussagen über zu erwartende Verschiebungen tätigen zu können. Den Vermesser stellt diese Forderung von Vollständigkeit vor die Herausforderung, eine Sichtverbindung zwischen Totalstation und jedem Punkt herstellen zu müssen. Sichtverbindungen zu einzelnen Punkten können aus vielen Gründen unterbrochen sein (Unebenheiten der Tunnelwand, stehende Baumaschinen und andere Geräte, an Tunnelwand befestigte Einbauten, ...), sodass im Sinne der Wirtschaftlichkeit ein Abwägen zwischen Vollständigkeit und Messdauer notwendig ist. Um dies zu verringern wird im Zuge der vorliegenden Arbeit eine Erweiterung der geotechnischen Messung vorgestellt. Mithilfe eines automatisierten, photogrammetrischen Modells soll die Möglichkeit gegeben werden, einzelne, terrestrisch mit Totalstation nicht gemessene Punkte zu bestimmen. Der Ansatz entspringt praktischer Überlegung, denn Bilder für ein photogrammetrisches Modell sind deutlich schneller aufgenommen als Standpunkte mit der Totalstation gemessen. Die Aufgabe der nachfolgenden Diplomarbeit ist nachzuweisen, ob ein automatisiertes, photogrammetrisches Modell aufgestellt werden kann, und dessen Genauigkeit zu untersuchen. Zur Entwicklung und Testung der Umsetzung wurde weitgehend auf quelloffene Software in der Programmiersprache Python zurückgegriffen. Es wurde ein Messprinzip entwickelt, das auf die einzigartigen Gegebenheiten des Bauwerks Tunnel eingeht. Aus diesem wurde ein Programmablauf entworfen, der Fokus auf die automatische Bildung des photogrammetrischen Modells legt. Als Testumgebung diente die Großbaustelle Semmering Basistunnel Neu, wo die Datenerfassung (Messbilder und tachymetrische Messung) durchgeführt wurde. Als Ergebnis konnte gezeigt werden, dass die Erweiterung der aktuellen Verschiebungsmessung mit automatisierten, photogrammetrischen Methoden gelingt. Mit Grundlage des Testdatensatzes wurde ein Ablauf gefunden, der Bilder nach dem vorgestellten Messprinzip übernimmt, automatisiert verarbeitet und am Ende Koordinaten von Zielmarken und deren Genauigkeiten ausgibt. Die erzielten photogrammetrischen Genauigkeiten sind aktuell in den besten Fällen um einen Faktor fünf größer als jene der tachymetrischen. In schlechten Konfigurationen kann jener Faktor auf über 15 steigen, im Extremfall versagt das Programm. Abschließend werden bereits weitere Forschungsaspekte aufgestellt, um die Genauigkeiten weiter zu steigern.
Beim Tunnelbau wird als Stand der Technik eine dreidimensionale geodätische Verschiebungsmessung mit Präzessionstotalstation durchgeführt (OGG, 2014, Wulf Schubert, 2004). Ziel derselben ist es, die Bewegungen der Tunnelschale in den drei Raumrichtungen aufzuzeigen. Aus geodätischer Sicht wird bei dieser 3D-Verschiebungsmessung die Bewegung von Punkten bestimmt. In dieser Arbeit wird die Verschiebungsmessung um ein automatisiertes, photogrammetrisches Modell erweitert, mit dem einzelne Verschiebungspunkte bestimmt werden können. Die Modelle der Geotechnik benötigen die vollständige Messung aller Punkte im definierten Bereich, um Aussagen über zu erwartende Verschiebungen tätigen zu können. Den Vermesser stellt diese Forderung von Vollständigkeit vor die Herausforderung, eine Sichtverbindung zwischen Totalstation und jedem Punkt herstellen zu müssen. Sichtverbindungen zu einzelnen Punkten können aus vielen Gründen unterbrochen sein (Unebenheiten der Tunnelwand, stehende Baumaschinen und andere Geräte, an Tunnelwand befestigte Einbauten, ...), sodass im Sinne der Wirtschaftlichkeit ein Abwägen zwischen Vollständigkeit und Messdauer notwendig ist. Um dies zu verringern wird im Zuge der vorliegenden Arbeit eine Erweiterung der geotechnischen Messung vorgestellt. Mithilfe eines automatisierten, photogrammetrischen Modells soll die Möglichkeit gegeben werden, einzelne, terrestrisch mit Totalstation nicht gemessene Punkte zu bestimmen. Der Ansatz entspringt praktischer Überlegung, denn Bilder für ein photogrammetrisches Modell sind deutlich schneller aufgenommen als Standpunkte mit der Totalstation gemessen. Die Aufgabe der nachfolgenden Diplomarbeit ist nachzuweisen, ob ein automatisiertes, photogrammetrisches Modell aufgestellt werden kann, und dessen Genauigkeit zu untersuchen. Zur Entwicklung und Testung der Umsetzung wurde weitgehend auf quelloffene Software in der Programmiersprache Python zurückgegriffen. Es wurde ein Messprinzip entwickelt, das auf die einzigartigen Gegebenheiten des Bauwerks Tunnel eingeht. Aus diesem wurde ein Programmablauf entworfen, der Fokus auf die automatische Bildung des photogrammetrischen Modells legt. Als Testumgebung diente die Großbaustelle Semmering Basistunnel Neu, wo die Datenerfassung (Messbilder und tachymetrische Messung) durchgeführt wurde. Als Ergebnis konnte gezeigt werden, dass die Erweiterung der aktuellen Verschiebungsmessung mit automatisierten, photogrammetrischen Methoden gelingt. Mit Grundlage des Testdatensatzes wurde ein Ablauf gefunden, der Bilder nach dem vorgestellten Messprinzip übernimmt, automatisiert verarbeitet und am Ende Koordinaten von Zielmarken und deren Genauigkeiten ausgibt. Die erzielten photogrammetrischen Genauigkeiten sind aktuell in den besten Fällen um einen Faktor fünf größer als jene der tachymetrischen. In schlechten Konfigurationen kann jener Faktor auf über 15 steigen, im Extremfall versagt das Programm. Abschließend werden bereits weitere Forschungsaspekte aufgestellt, um die Genauigkeiten weiter zu steigern.
Beurteilung von fernerkundlich abgeleiteten Inputparametern für Klimamodelle
Institut für Geodäsie, Arbeitsgruppe Fernerkundung und Photogrammetrie, Technische Universität Graz, 2020
Betreuer: Univ.-Prof. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Klimamodelle leisten einen wichtigen Beitrag im politischen Entscheidungsprozess, vor allem in Hinblick auf die zukünftigen Herausforderungen des Klimawandels. Das Landmodul in Klimamodellen stellt einen der Hauptantriebskomponenten des Klimasystems der Erde dar. Deswegen sind Informationen über die Landoberfläche essentiell für eine erfolgreiche Anwendung dieser Modelle. Oftmals werden die biogeophysikalischen Parameter, welche die Prozesse auf der Landoberfläche beschreiben, als statischer Input im Landmodul festgelegt. Fernerkundung ist ein geeignetes Werkzeug, um großflächige Daten einfach und in kurzer Zeit zur Verfügung zu stellen. Ziel dieser Arbeit ist es, die Dynamik von drei biogeophysikalischen Parametern - Albedo, Fraction of Vegetation Cover, Leaf Area Index - mit Hilfe von optischen Fernerkundungsmethoden aus Sentinel-2 Bilddaten abzuleiten. Durch die geometrische und zeitliche Auflösung der Sentinel-2 Daten eignen sie sich besonders gut zur Ableitung der Dynamik dieser drei Parameter. Aus der Literatur werden passende Methoden zur Bestimmung der Parameter ausgewählt und auf die Sentinel-2 Daten angewandt. Mittels verschiedener Referenzdatensätze aus terrestrischen Parametermessungen und Daten zur Bodenbedeckung werden die Ergebnisse hinsichtlich ihrer Validität und Plausibilität analysiert. Aus den Ergebnissen lässt sich auf eine allgemeine Gültigkeit innerhalb des erwarteten Bereiches schließen. Einschränkungen bezüglich der Referenzdaten sind jedoch bei der Auswertung der Ergebnisse zu beachten. Ground Truth Messungen zu den drei Parametern innerhalb des Untersuchungsgebietes und idealerweise zeitnah zu den Aufnahmezeitpunkten der verwendeten Fernerkundungsdaten sind für eine genauere Evaluierung der Ergebnisse unbedingt erforderlich.
Klimamodelle leisten einen wichtigen Beitrag im politischen Entscheidungsprozess, vor allem in Hinblick auf die zukünftigen Herausforderungen des Klimawandels. Das Landmodul in Klimamodellen stellt einen der Hauptantriebskomponenten des Klimasystems der Erde dar. Deswegen sind Informationen über die Landoberfläche essentiell für eine erfolgreiche Anwendung dieser Modelle. Oftmals werden die biogeophysikalischen Parameter, welche die Prozesse auf der Landoberfläche beschreiben, als statischer Input im Landmodul festgelegt. Fernerkundung ist ein geeignetes Werkzeug, um großflächige Daten einfach und in kurzer Zeit zur Verfügung zu stellen. Ziel dieser Arbeit ist es, die Dynamik von drei biogeophysikalischen Parametern - Albedo, Fraction of Vegetation Cover, Leaf Area Index - mit Hilfe von optischen Fernerkundungsmethoden aus Sentinel-2 Bilddaten abzuleiten. Durch die geometrische und zeitliche Auflösung der Sentinel-2 Daten eignen sie sich besonders gut zur Ableitung der Dynamik dieser drei Parameter. Aus der Literatur werden passende Methoden zur Bestimmung der Parameter ausgewählt und auf die Sentinel-2 Daten angewandt. Mittels verschiedener Referenzdatensätze aus terrestrischen Parametermessungen und Daten zur Bodenbedeckung werden die Ergebnisse hinsichtlich ihrer Validität und Plausibilität analysiert. Aus den Ergebnissen lässt sich auf eine allgemeine Gültigkeit innerhalb des erwarteten Bereiches schließen. Einschränkungen bezüglich der Referenzdaten sind jedoch bei der Auswertung der Ergebnisse zu beachten. Ground Truth Messungen zu den drei Parametern innerhalb des Untersuchungsgebietes und idealerweise zeitnah zu den Aufnahmezeitpunkten der verwendeten Fernerkundungsdaten sind für eine genauere Evaluierung der Ergebnisse unbedingt erforderlich.
Reference water mapping based on Sentinel-1 and -2 data
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2020
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner
Kurzfassung/Abstract
Flood events are one of the most dangerous natural hazards on Earth. By using instruments of Earth Observation, information about the actual water extent and the event's process can be provided. Subsequently, a targeted rescue of victims can be supported and the potential damages can be reduced. An important task is to determine the event's true surface water extent and to distinguish between areas which are affected by an event and those which are generally inundated. Therefore observations obtained during a flood event are compared to reference information which represents the open surface water bodies under normal conditions. Uncertainties within the reference information could directly distort the result of flood detection. In this thesis multiple methods for defining valuable reference information are observed and compared. One focus lies on the diverging properties between surface water detection based on optical (Sentinel-2) or radar observations (Sentinel-1). Therefore Sentinel-1 and Sentinel-2 water maps were processed by fully automatic processing chains developed by the German Aerospace Centre's (DLR) research group 'Natural Hazards'. A flexible work-flow for defining reference information from time-series of water maps is presented. As a result diverging properties of reference information calculated from different sensors, time periods and other adaptions of the work-flow are presented. By the use of these findings the thesis should support potential use of satellite based reference water mapping. The aim is to improve the understanding of characteristics of certain parameters like the used sensors or the considered period of time. Finally, an example for the use of sensor specific differences in flood detection is given. All results are tested in Bihar (India) where temporal changes of the surface water areas appear quite often. The second test region is the region surrounding Zaragoza (Spain) where the water areas are hardly affected by temporal changes.
Flood events are one of the most dangerous natural hazards on Earth. By using instruments of Earth Observation, information about the actual water extent and the event's process can be provided. Subsequently, a targeted rescue of victims can be supported and the potential damages can be reduced. An important task is to determine the event's true surface water extent and to distinguish between areas which are affected by an event and those which are generally inundated. Therefore observations obtained during a flood event are compared to reference information which represents the open surface water bodies under normal conditions. Uncertainties within the reference information could directly distort the result of flood detection. In this thesis multiple methods for defining valuable reference information are observed and compared. One focus lies on the diverging properties between surface water detection based on optical (Sentinel-2) or radar observations (Sentinel-1). Therefore Sentinel-1 and Sentinel-2 water maps were processed by fully automatic processing chains developed by the German Aerospace Centre's (DLR) research group 'Natural Hazards'. A flexible work-flow for defining reference information from time-series of water maps is presented. As a result diverging properties of reference information calculated from different sensors, time periods and other adaptions of the work-flow are presented. By the use of these findings the thesis should support potential use of satellite based reference water mapping. The aim is to improve the understanding of characteristics of certain parameters like the used sensors or the considered period of time. Finally, an example for the use of sensor specific differences in flood detection is given. All results are tested in Bihar (India) where temporal changes of the surface water areas appear quite often. The second test region is the region surrounding Zaragoza (Spain) where the water areas are hardly affected by temporal changes.
Bildbasiertes Monitoring von ziviler Infrastruktur und auftretenden natürlichen Phänomenen
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2020
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Der Einsatz von Messsystemen, welche nicht zwangsläufig einen direkten Zugang zum Messobjekt voraussetzen, bewirkt teilweise einen Paradigmenwechsel in der Ingenieurvermessung. Das bedeutet, dass auch die Hersteller Produktlinien für neue Messinstrumente entwickeln, welche z.B. mit mehreren Kameras versehen sind. Die gängige Bezeichnung für diese Geräte ist Video-Totalstation. Diese Umsetzung ermöglicht die Kombination von genauen Richtungs- und Distanzmessungen mit zusätzlicher Bildaufnahme, wobei die für diese Arbeit verwendete Multistation, die Leica MS60, mit Hilfe eines 5Mpx Sensors arbeitet und somit hochauflösende Bild- und Videoaufnahmen möglich sind. Um diesen zusätzlichen Sensortyp zu testen, wurden im Zuge einer Rutschhangmessung in Wald am Schoberpaß (Steiermark) Bild- und Videodaten aufgezeichnet, um die Leistungsfähigkeit der Teleskopkamera zu testen. Im Zuge der Auswertungen werden die eingesetzten Messroutinen bewertet bzw. Verbesserungen im Zuge der Bildaufnahme vorgeschlagen. Dabei spielen das Ansteuern des Ziels, die richtige Belichtung, eine automatisierte Bildauswertung und Umrechnung der Bildkoordinaten in Winkelwerte eine zentrale Rolle. Zusätzlich dazu wird ein Evaluierungsansatz vorgeschlagen, welcher auf dynamisch durchgeführten Messungen mit automatischer Zielerfassung basiert. Das sich dabei ergebende Messrauschen wird als Grundlage für die Bewertung von Winkelmessungen verwendet, welche im Zuge eines geodätischen Monitorings Objektbewegungen vermuten lassen.
Der Einsatz von Messsystemen, welche nicht zwangsläufig einen direkten Zugang zum Messobjekt voraussetzen, bewirkt teilweise einen Paradigmenwechsel in der Ingenieurvermessung. Das bedeutet, dass auch die Hersteller Produktlinien für neue Messinstrumente entwickeln, welche z.B. mit mehreren Kameras versehen sind. Die gängige Bezeichnung für diese Geräte ist Video-Totalstation. Diese Umsetzung ermöglicht die Kombination von genauen Richtungs- und Distanzmessungen mit zusätzlicher Bildaufnahme, wobei die für diese Arbeit verwendete Multistation, die Leica MS60, mit Hilfe eines 5Mpx Sensors arbeitet und somit hochauflösende Bild- und Videoaufnahmen möglich sind. Um diesen zusätzlichen Sensortyp zu testen, wurden im Zuge einer Rutschhangmessung in Wald am Schoberpaß (Steiermark) Bild- und Videodaten aufgezeichnet, um die Leistungsfähigkeit der Teleskopkamera zu testen. Im Zuge der Auswertungen werden die eingesetzten Messroutinen bewertet bzw. Verbesserungen im Zuge der Bildaufnahme vorgeschlagen. Dabei spielen das Ansteuern des Ziels, die richtige Belichtung, eine automatisierte Bildauswertung und Umrechnung der Bildkoordinaten in Winkelwerte eine zentrale Rolle. Zusätzlich dazu wird ein Evaluierungsansatz vorgeschlagen, welcher auf dynamisch durchgeführten Messungen mit automatischer Zielerfassung basiert. Das sich dabei ergebende Messrauschen wird als Grundlage für die Bewertung von Winkelmessungen verwendet, welche im Zuge eines geodätischen Monitorings Objektbewegungen vermuten lassen.
Untersuchung von Prototypen faseroptischer Neigungssensoren basierend auf Fabry-Pérot-Weißlichtinterferometrie
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2020
Betreuer: Dipl.-Ing. Dr.techn. Helmut Woschitz
Kurzfassung/Abstract
Diese Arbeit beschäftigt sich mit einem Neigungsmesssystem auf Basis faseroptischer Sensoren nach dem Messprinzip der Weißlichtinterferometrie. Kernstück des Messsystems ist ein Fabry-Pérot-Neigungssensor, der in MEMS-Bauweise gefertigt ist und auf dem Feder-Masse-Prinzip aufbaut. Das Sensordesign in zwei Varianten (symmetrisch bzw. schiefsymmetrisch) erlaubt eine Messung in zwei entgegengesetzten Kanälen und bietet somit die Möglichkeit der Kompensation von Temperatureinflüssen. Zehn Prototypen dieses Sensors in beiden Designs wurden von einem arrivierten Hersteller für ausführliche Tests zur Verfügung gestellt. Zwei Sensoren (je einer pro Sensordesign) wurden für umfassendere Untersuchungen selektiert. Die anderen acht Sensoren wurden aufgrund zu geringer Empfindlichkeit und Produktionsunzulänglichkeiten von den weiteren Untersuchungen ausgeschlossen. Die Laboruntersuchungen zeigen, dass bei einem Systemrauschen von ca. 1-2 nm in der Fabry-Pérot-Distanz bei den beiden Sensoren eine Neigungsauflösung von 3-5" bzw. 10-20" erzielt werden kann, wobei der Neigungsmessbereich ca. ±5° bzw. mehr als ±15° beträgt. Bei den Prototypen konnte eine starke Temperaturabhängigkeit mit erheblichem Einfluss auf Sensornullpunkt, Messbereich und Empfindlichkeit festgestellt werden. Bereits Temperaturänderungen um 0.1 °C führten zu signifikanten scheinbaren Neigungsänderungen, wobei Tests eine uneinheitliche Reaktion der Sensorkanäle auf Temperaturimpulse zeigten. Langzeitmessungen wurden durchgeführt, um die Nullpunktstabilität der Sensoren zu untersuchen. Es zeigt sich, dass durch die Kombination der beiden Sensorkanäle Temperaturänderungen und damit temperaturbedingte Sensordriften zum Teil kompensiert werden können. Allerdings traten bei den Untersuchungen auch systematische Abweichungen auf, die nach eingehenden Tests eher dem Messgerät zugeschrieben werden konnten als den Sensoren. Diese führen zu Linearitätsabweichungen der Kennlinie und beschränken die Genauigkeit des Gesamtsystems. Die Ergebnisse der Arbeit fließen in die Weiterentwicklung der Prototypen ein.
Diese Arbeit beschäftigt sich mit einem Neigungsmesssystem auf Basis faseroptischer Sensoren nach dem Messprinzip der Weißlichtinterferometrie. Kernstück des Messsystems ist ein Fabry-Pérot-Neigungssensor, der in MEMS-Bauweise gefertigt ist und auf dem Feder-Masse-Prinzip aufbaut. Das Sensordesign in zwei Varianten (symmetrisch bzw. schiefsymmetrisch) erlaubt eine Messung in zwei entgegengesetzten Kanälen und bietet somit die Möglichkeit der Kompensation von Temperatureinflüssen. Zehn Prototypen dieses Sensors in beiden Designs wurden von einem arrivierten Hersteller für ausführliche Tests zur Verfügung gestellt. Zwei Sensoren (je einer pro Sensordesign) wurden für umfassendere Untersuchungen selektiert. Die anderen acht Sensoren wurden aufgrund zu geringer Empfindlichkeit und Produktionsunzulänglichkeiten von den weiteren Untersuchungen ausgeschlossen. Die Laboruntersuchungen zeigen, dass bei einem Systemrauschen von ca. 1-2 nm in der Fabry-Pérot-Distanz bei den beiden Sensoren eine Neigungsauflösung von 3-5" bzw. 10-20" erzielt werden kann, wobei der Neigungsmessbereich ca. ±5° bzw. mehr als ±15° beträgt. Bei den Prototypen konnte eine starke Temperaturabhängigkeit mit erheblichem Einfluss auf Sensornullpunkt, Messbereich und Empfindlichkeit festgestellt werden. Bereits Temperaturänderungen um 0.1 °C führten zu signifikanten scheinbaren Neigungsänderungen, wobei Tests eine uneinheitliche Reaktion der Sensorkanäle auf Temperaturimpulse zeigten. Langzeitmessungen wurden durchgeführt, um die Nullpunktstabilität der Sensoren zu untersuchen. Es zeigt sich, dass durch die Kombination der beiden Sensorkanäle Temperaturänderungen und damit temperaturbedingte Sensordriften zum Teil kompensiert werden können. Allerdings traten bei den Untersuchungen auch systematische Abweichungen auf, die nach eingehenden Tests eher dem Messgerät zugeschrieben werden konnten als den Sensoren. Diese führen zu Linearitätsabweichungen der Kennlinie und beschränken die Genauigkeit des Gesamtsystems. Die Ergebnisse der Arbeit fließen in die Weiterentwicklung der Prototypen ein.
Hochauflösende TEM-Untersuchungen für hydrogeophysikalische Anwendungen
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2020
Betreuer: Dr. Adrian Flores-Orozco, Univ.Ass. Dipl.-Ing. Lukas Aigner
Kurzfassung/Abstract
Hangrutschungen treten in Österreich großflächig auf und stellen besonders in Siedlungsgebieten ein Sicherheitsrisiko dar. Andererseits stellt die Kontamination von Böden mit Teeröl ein gesundheitliches Risiko dar. Das als krebserregend geltende Teeröl wurde zur Imprägnierung von Bahnschwellen in ganz Österreich verwendet. Eine etablierte Methode, um Gleitflächen von Hangrutschungen oder kontaminierte Bereiche zu erfassen ist die spezifische Widerstandstomographie (ERT). Diese Methode ist jedoch kosten- und zeitintensiv. Daher wurde in dieser Arbeit die einfach anwendbare Transiente Elektromagnetische (TEM) Methode getestet. Dabei fließt Strom durch eine am Boden liegende Schleife und induziert durch das abrupte abschalten des Stroms durch das zeitlich variierende magnetische Feld Strom in den Untergrund. Das dadurch erzeugte sekundäre Magnetfeld wird in der Empfängerspule gemessen. Dadurch kann der scheinbare spezifische Widerstand im Untergrund berechnet und ein Modell erstellt werden. Die beiden Methoden wurden in zwei Messgebieten miteinander verglichen. Die TEM-Methode eignet sich besonders für die Detektion von Schichten mit niedrigen spezifischen Widerständen, die von hochohmigen Schichten umgeben sind. Die TEM-Methode lieferte im ersten Messgebiet auf einem Rutschhang gute Ergebnisse, die sich mit den Daten eines Bohrloches decken. Im zweiten, mit Teeröl kontaminierten Messgebiet, konnten die Methoden aufgrund der schlechten TEM-Daten nicht verglichen werden. Das Modell des Untergrundes wurde hier aus den ERT-Daten abgeleitet. Das Gebiet im Rutschhang war nicht von offensichtlichen elektromagnetischen Feldern umgeben und der leitfähige Untergrund für die TEM-Messungen optimal. Da das Messgebiet des kontaminierten Bereiches an die Hochspannungsleitung einer Zugstrecke grenzt und deshalb keine eindeutige Aussage über die Ursache der verrauschten Messdaten getroffen werden kann, sollte im kontaminierten Bereich noch eine weitere Validierung durchgeführt werden.
Hangrutschungen treten in Österreich großflächig auf und stellen besonders in Siedlungsgebieten ein Sicherheitsrisiko dar. Andererseits stellt die Kontamination von Böden mit Teeröl ein gesundheitliches Risiko dar. Das als krebserregend geltende Teeröl wurde zur Imprägnierung von Bahnschwellen in ganz Österreich verwendet. Eine etablierte Methode, um Gleitflächen von Hangrutschungen oder kontaminierte Bereiche zu erfassen ist die spezifische Widerstandstomographie (ERT). Diese Methode ist jedoch kosten- und zeitintensiv. Daher wurde in dieser Arbeit die einfach anwendbare Transiente Elektromagnetische (TEM) Methode getestet. Dabei fließt Strom durch eine am Boden liegende Schleife und induziert durch das abrupte abschalten des Stroms durch das zeitlich variierende magnetische Feld Strom in den Untergrund. Das dadurch erzeugte sekundäre Magnetfeld wird in der Empfängerspule gemessen. Dadurch kann der scheinbare spezifische Widerstand im Untergrund berechnet und ein Modell erstellt werden. Die beiden Methoden wurden in zwei Messgebieten miteinander verglichen. Die TEM-Methode eignet sich besonders für die Detektion von Schichten mit niedrigen spezifischen Widerständen, die von hochohmigen Schichten umgeben sind. Die TEM-Methode lieferte im ersten Messgebiet auf einem Rutschhang gute Ergebnisse, die sich mit den Daten eines Bohrloches decken. Im zweiten, mit Teeröl kontaminierten Messgebiet, konnten die Methoden aufgrund der schlechten TEM-Daten nicht verglichen werden. Das Modell des Untergrundes wurde hier aus den ERT-Daten abgeleitet. Das Gebiet im Rutschhang war nicht von offensichtlichen elektromagnetischen Feldern umgeben und der leitfähige Untergrund für die TEM-Messungen optimal. Da das Messgebiet des kontaminierten Bereiches an die Hochspannungsleitung einer Zugstrecke grenzt und deshalb keine eindeutige Aussage über die Ursache der verrauschten Messdaten getroffen werden kann, sollte im kontaminierten Bereich noch eine weitere Validierung durchgeführt werden.
Determination of Relative Orientation based on Distance Measurements
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2020
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Manfred Wieser
Kurzfassung/Abstract
Das starke Wachstum der Kompostierungsindustrie führte in letzter Zeit zu Überlegungen hinsichtlich der Automatisierung des kompletten Kompostierungsprozesses. Die wichtigste Information für einen automatisierten Kompostwender ist seine Position und Ausrichtung. Normalerweise können all diese Information durch Technologien wie GNSS oder inertiale Messeinheiten geliefert werden. Durch die sehr langsame Fortbewegungsgeschwindigkeit und die starken Vibrationen ist dies in diesem Fall nicht möglich. Diese Arbeit behandelt alternative Technologien zur relativen Richtungsbestimmung von Kompostwendemaschinen in Bezug auf industrielle Dreiecksmieten. Aus Distanzmessungen zu diesen Mieten, welche mithilfe von Ultraschall-, Laser- oder bildgebenden Sensoren getätigt werden, werden im Anschluss Richtungsinformationen abgeleitet. Neuartige Algorithmen wurden hierbei untersucht. Zu Beginn wurden einfache Methoden analysiert, wie die Herleitung von Richtungsinformation durch Schneiden zweier Geraden, welche entlang der Oberfläche der Dreiecksmiete verlaufen. Des Weiteren wurden komplexere Methoden analysiert, bei welchen durch die Korrelation von Oberflächenstrukturen Richtungsinformation abgleitet werden kann. Auch hochkomplexe Methoden zur relativen Richtungsbestimmung, wie Odometrie durch bildgestützte Sensorik, wurden betrachtet. Distanzmessungen wurden während zweier Messkampagnen aufgenommen und die Resultate diese Messungen in Kombination mit den Algorithmen wurden mithilfe von Referenzmessungen validiert. Die Verwendung von Ultraschall- oder Lasermessungen erzielte keine brauchbaren Ergebnisse mit ausreichender Genauigkeit oder Präzision um einen autonomen Kompostwender steuern zu können. Die Verwendung von Distanzmessungen einer Stereokamera in Kombination mit einer Oberflächenkorrelationsmethode lieferte gute Ergebnisse für kurze Zeitintervalle kleiner 15 Minuten. RMS-Fehlerwerte um 4 Grad über diese Zeitspanne wurden erzielt. Die Methode der bildgestützten Odometrie lieferte ausgezeichnete Ergebnisse. Diese Methode zeichnet sich durch Effektivwert-Fehler von 0.6 Grad über die komplette Dauer einer Fahrt von 20 Minuten aus. Die Resultate dieser Arbeit haben gezeigt, dass sich bildgestützte Methoden zur Navigation sehr gut für die Anwendung im Agrikulturbereich eignen.
Das starke Wachstum der Kompostierungsindustrie führte in letzter Zeit zu Überlegungen hinsichtlich der Automatisierung des kompletten Kompostierungsprozesses. Die wichtigste Information für einen automatisierten Kompostwender ist seine Position und Ausrichtung. Normalerweise können all diese Information durch Technologien wie GNSS oder inertiale Messeinheiten geliefert werden. Durch die sehr langsame Fortbewegungsgeschwindigkeit und die starken Vibrationen ist dies in diesem Fall nicht möglich. Diese Arbeit behandelt alternative Technologien zur relativen Richtungsbestimmung von Kompostwendemaschinen in Bezug auf industrielle Dreiecksmieten. Aus Distanzmessungen zu diesen Mieten, welche mithilfe von Ultraschall-, Laser- oder bildgebenden Sensoren getätigt werden, werden im Anschluss Richtungsinformationen abgeleitet. Neuartige Algorithmen wurden hierbei untersucht. Zu Beginn wurden einfache Methoden analysiert, wie die Herleitung von Richtungsinformation durch Schneiden zweier Geraden, welche entlang der Oberfläche der Dreiecksmiete verlaufen. Des Weiteren wurden komplexere Methoden analysiert, bei welchen durch die Korrelation von Oberflächenstrukturen Richtungsinformation abgleitet werden kann. Auch hochkomplexe Methoden zur relativen Richtungsbestimmung, wie Odometrie durch bildgestützte Sensorik, wurden betrachtet. Distanzmessungen wurden während zweier Messkampagnen aufgenommen und die Resultate diese Messungen in Kombination mit den Algorithmen wurden mithilfe von Referenzmessungen validiert. Die Verwendung von Ultraschall- oder Lasermessungen erzielte keine brauchbaren Ergebnisse mit ausreichender Genauigkeit oder Präzision um einen autonomen Kompostwender steuern zu können. Die Verwendung von Distanzmessungen einer Stereokamera in Kombination mit einer Oberflächenkorrelationsmethode lieferte gute Ergebnisse für kurze Zeitintervalle kleiner 15 Minuten. RMS-Fehlerwerte um 4 Grad über diese Zeitspanne wurden erzielt. Die Methode der bildgestützten Odometrie lieferte ausgezeichnete Ergebnisse. Diese Methode zeichnet sich durch Effektivwert-Fehler von 0.6 Grad über die komplette Dauer einer Fahrt von 20 Minuten aus. Die Resultate dieser Arbeit haben gezeigt, dass sich bildgestützte Methoden zur Navigation sehr gut für die Anwendung im Agrikulturbereich eignen.
Beurteilung der Performance von verteilt akustischen Sensoren (DAS) anhand von faseroptischen Labortests
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2020
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Die vorliegende Arbeit befasst sich mit faseroptischen Messsystemen basierend auf verteilt akustischen Sensoren. Aus der englischen Bezeichnung “Distributed Acoustic Sensing“ wird dabei die häufig in der Literatur anzufindende Abkürzung DAS entlehnt, welche auch im weiteren Verlauf dieser Arbeit für das Fachgebiet verwendet wird. Auf das Grundprinzip wird im Folgenden kurz eingegangen. Ein Laserimpuls wird in die Glasfaser eingeleitet und aufgrund der natürlich auftretenden Rayleigh Rückstreuung entlang der gesamten Faserlänge wird ein Teil des Impulses reflektiert und zurück zur Messeinheit gesendet. Wirken nun zum Beispiel Vibrationen oder akustische Wellen auf die Faser ein, so ändert sich deren physische Zusammensetzung, was sich wiederum im rückgestreuten Signal bemerkbar macht. Durch die Laufzeit zwischen Laseraustritt und Eintreffen des reflektierten Signales am Detektor lässt sich nun der Rückstreuungsort entlang der Faser bestimmen. Somit können anhand einer DAS Messeinheit und eines einfachen Lichtwellenleiters lange lineare Objekte, wie zum Beispiel Eisenbahnstrecken oder Pipelines, über eine Distanz von bis zu 50 km lückenlos überwacht werden. Äußere Einflüsse, welche ein Gefahrenpotenzial für das zu schützende Objekt darstellen, können somit detektiert und Schadensfälle durch ein rasches Eingreifen minimiert werden. Um Messgeräte speziell für das Anwendungsgebiet im Bahnbetrieb zu testen, wurden im IGMS Messlabor an der TU Graz Instrumententests für drei DAS basierte Messsysteme durchgeführt. Diese befassten sich mit Versuchen zur Beurteilung praktisch relevanter Performance Kriterien in Bezug auf die Geräte. Dabei wurden das Systemrauschen, der dynamische Bereich sowie der aufzulösende Frequenzbereich der Versuchsgeräte bestimmt. Des Weiteren wurden unterschiedliche Fasertypen in Bezug auf ihr Rückstreuungsverhalten und ihrer Sensitivität anhand von Messungen mit den Testinstrumenten untersucht. Ziel der Versuche ist es nun, unterschiedliche Verhaltensmuster der Testinstrumente sowie der Fasertypen festzumachen und diese hinsichtlich ihrer praktischen Relevanz zu beurteilen.
Die vorliegende Arbeit befasst sich mit faseroptischen Messsystemen basierend auf verteilt akustischen Sensoren. Aus der englischen Bezeichnung “Distributed Acoustic Sensing“ wird dabei die häufig in der Literatur anzufindende Abkürzung DAS entlehnt, welche auch im weiteren Verlauf dieser Arbeit für das Fachgebiet verwendet wird. Auf das Grundprinzip wird im Folgenden kurz eingegangen. Ein Laserimpuls wird in die Glasfaser eingeleitet und aufgrund der natürlich auftretenden Rayleigh Rückstreuung entlang der gesamten Faserlänge wird ein Teil des Impulses reflektiert und zurück zur Messeinheit gesendet. Wirken nun zum Beispiel Vibrationen oder akustische Wellen auf die Faser ein, so ändert sich deren physische Zusammensetzung, was sich wiederum im rückgestreuten Signal bemerkbar macht. Durch die Laufzeit zwischen Laseraustritt und Eintreffen des reflektierten Signales am Detektor lässt sich nun der Rückstreuungsort entlang der Faser bestimmen. Somit können anhand einer DAS Messeinheit und eines einfachen Lichtwellenleiters lange lineare Objekte, wie zum Beispiel Eisenbahnstrecken oder Pipelines, über eine Distanz von bis zu 50 km lückenlos überwacht werden. Äußere Einflüsse, welche ein Gefahrenpotenzial für das zu schützende Objekt darstellen, können somit detektiert und Schadensfälle durch ein rasches Eingreifen minimiert werden. Um Messgeräte speziell für das Anwendungsgebiet im Bahnbetrieb zu testen, wurden im IGMS Messlabor an der TU Graz Instrumententests für drei DAS basierte Messsysteme durchgeführt. Diese befassten sich mit Versuchen zur Beurteilung praktisch relevanter Performance Kriterien in Bezug auf die Geräte. Dabei wurden das Systemrauschen, der dynamische Bereich sowie der aufzulösende Frequenzbereich der Versuchsgeräte bestimmt. Des Weiteren wurden unterschiedliche Fasertypen in Bezug auf ihr Rückstreuungsverhalten und ihrer Sensitivität anhand von Messungen mit den Testinstrumenten untersucht. Ziel der Versuche ist es nun, unterschiedliche Verhaltensmuster der Testinstrumente sowie der Fasertypen festzumachen und diese hinsichtlich ihrer praktischen Relevanz zu beurteilen.
Eco-friendly routing based on current air quality sensor data
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2020
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Heutzutage hat nahezu jede größere Stadt mit den Problemen der Luftverschmutzung zu kämpfen. Eine der Hauptursachen dafür ist der von Jahr zu Jahr wachsende Verkehrssektor. Neben den Schadstoffen trägt dieser Sektor erheblich zu den Treibhausgasen bei, wobei CO2 den größten Anteil übernimmt. Einen Lösungsansatz zur Minderung dieses Problems bietet das umweltfreundliche Routing, bei dem nicht die schnellste oder kürzeste, sondern die energieeffizienteste Route ermittelt wird. In der vorliegenden Arbeit wird ein umweltfreundliches Routing auf Basis der GIP (Graphenintegrations-Plattform) - Daten durchgeführt. Hierfür werden zunächst theoretische Grundlagen aus der Literatur ermittelt, um diese in einem Routing-Experiment umsetzen zu können. Auf der Grundlage der Fahrdynamik und der ausgearbeiteten wesentlichen Straßen-, Fahrzeug- und Verkehrseigenschaften wird ein Eco-Routing-Modell erstellt und in weiterer Folge für die Stadt Graz mittels A-Stern-Algorithmus umgesetzt. Ziel des Modells ist es, dass die Routen nicht durch Gebiete mit hoher Luftverschmutzung durchgeführt werden. Aus diesem Grund werden aktuelle Schadstoffdaten in das Routing einbezogen, mit dem Fokus Feinstaub (PM). Zu diesem Zweck übermitteln sowohl Daten von fixen Messstationen als auch simulierte Daten von Luftgütesensoren von Fahrzeugen, die die Schadstoffe direkt auf der Straße messen, standardisierte Beobachtungen an einen Webserver. Diese Daten werden vor jedem Routing abgefragt, um die aktuelle Luftqualität der Straßen ermitteln zu können. Unter Anwendung eines Luftqualitätsindex werden diese Messungen ausgewertet und gewichtet. Die Unterschiede zwischen den Routen nach Zeit, Entfernung, Kraftstoffverbrauch und CO2 werden anhand mehrerer Szenarien ermittelt. Darüber hinaus werden die Auswirkungen der Implementierung der PM-Werte näher erläutert, wenn Routen durch Gebiete mit hoher Verschmutzung umfahren werden. Ein Augenmerk liegt auf der speziellen Rolle der Gewichtung der PM-Werte, da bei zu geringen Werten stark belastete Gebiete durchfahren und bei zu hoher Gewichtung die Routen unwirtschaftlich werden. Anhand verschiedener Hotspot-Analysen wird veranschaulicht, wie weit die Routen unter Berücksichtigung und ohne Berücksichtigung der Schadstoffwerte vom Verschmutzungsschwerpunkt entfernt sind.
Heutzutage hat nahezu jede größere Stadt mit den Problemen der Luftverschmutzung zu kämpfen. Eine der Hauptursachen dafür ist der von Jahr zu Jahr wachsende Verkehrssektor. Neben den Schadstoffen trägt dieser Sektor erheblich zu den Treibhausgasen bei, wobei CO2 den größten Anteil übernimmt. Einen Lösungsansatz zur Minderung dieses Problems bietet das umweltfreundliche Routing, bei dem nicht die schnellste oder kürzeste, sondern die energieeffizienteste Route ermittelt wird. In der vorliegenden Arbeit wird ein umweltfreundliches Routing auf Basis der GIP (Graphenintegrations-Plattform) - Daten durchgeführt. Hierfür werden zunächst theoretische Grundlagen aus der Literatur ermittelt, um diese in einem Routing-Experiment umsetzen zu können. Auf der Grundlage der Fahrdynamik und der ausgearbeiteten wesentlichen Straßen-, Fahrzeug- und Verkehrseigenschaften wird ein Eco-Routing-Modell erstellt und in weiterer Folge für die Stadt Graz mittels A-Stern-Algorithmus umgesetzt. Ziel des Modells ist es, dass die Routen nicht durch Gebiete mit hoher Luftverschmutzung durchgeführt werden. Aus diesem Grund werden aktuelle Schadstoffdaten in das Routing einbezogen, mit dem Fokus Feinstaub (PM). Zu diesem Zweck übermitteln sowohl Daten von fixen Messstationen als auch simulierte Daten von Luftgütesensoren von Fahrzeugen, die die Schadstoffe direkt auf der Straße messen, standardisierte Beobachtungen an einen Webserver. Diese Daten werden vor jedem Routing abgefragt, um die aktuelle Luftqualität der Straßen ermitteln zu können. Unter Anwendung eines Luftqualitätsindex werden diese Messungen ausgewertet und gewichtet. Die Unterschiede zwischen den Routen nach Zeit, Entfernung, Kraftstoffverbrauch und CO2 werden anhand mehrerer Szenarien ermittelt. Darüber hinaus werden die Auswirkungen der Implementierung der PM-Werte näher erläutert, wenn Routen durch Gebiete mit hoher Verschmutzung umfahren werden. Ein Augenmerk liegt auf der speziellen Rolle der Gewichtung der PM-Werte, da bei zu geringen Werten stark belastete Gebiete durchfahren und bei zu hoher Gewichtung die Routen unwirtschaftlich werden. Anhand verschiedener Hotspot-Analysen wird veranschaulicht, wie weit die Routen unter Berücksichtigung und ohne Berücksichtigung der Schadstoffwerte vom Verschmutzungsschwerpunkt entfernt sind.
Grenzen im österreichischen Kataster: Wie merken sich Grundeigentümer den Grenzverlauf in der Natur?
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2020
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Diese Diplomarbeit befasst sich mit Grundstücksgrenzen im österreichischen Kataster, im speziellen damit, wie sich Grundeigentümer ihre Grundstücksgrenzen in der Natur merken. Die Befragung von Grundstücksbesitzern soll klären, wie unterschiedlich sich Grundeigentümer mit den eigenen Grenzen und deren Vermarkung in der Natur auseinandersetzen. Aufgrund der Vielfältigkeit der unterschiedlichen Grundstücke sind dabei unterschiedlichste Herangehensweisen zu erwarten. Prinzipiell wird im österreichischen Kataster zwischen Grundstücken im Grundsteuerkataster und Grundstücken im Grenzkataster unterschieden, die sich im Wesentlichen in der rechtlichen Definition der Grenze unterscheiden. Grundstücke im Grundsteuerkataster werden lt. Gesetz über die sich in der Natur ersichtlichen Grenzpunkte definiert, wodurch die Fragestellung, wie sich Grundeigentümer diesen Grenzverlauf merken, eine weitere wichtige Bedeutung erhält. Zur Untersuchung dieser Fragestellung wurde ein standardisierter Fragebogen erstellt, welcher in Zusammenarbeit mit dem Vermessungsbüro Dipl.-Ing. Dr.techn. W. Daxinger an ausgewählte Grundeigentümer verteilt wurde. Dabei wurde darauf geachtet, dass die Stichprobe der Datenerhebung drei unterschiedliche Nutzungsarten (Grundstücke im Baugebiet, Grundstücke mit landwirtschaftliche Nutzflächen und Waldgrundstücke) abdeckt. Die Befragung der 25 Teilnehmer erfolgte im Zuge von Grenzverhandlungen. Aufgrund der analysierten Daten zeigte sich, dass die Wahrnehmung der eigenen Grundstücksgrenze oft von der Art des Grundstücks abhängig ist und damit auch der Arbeitsaufwand, der in die Überprüfung und Instandhaltung der Grundstücksgrenze investiert wird.
Diese Diplomarbeit befasst sich mit Grundstücksgrenzen im österreichischen Kataster, im speziellen damit, wie sich Grundeigentümer ihre Grundstücksgrenzen in der Natur merken. Die Befragung von Grundstücksbesitzern soll klären, wie unterschiedlich sich Grundeigentümer mit den eigenen Grenzen und deren Vermarkung in der Natur auseinandersetzen. Aufgrund der Vielfältigkeit der unterschiedlichen Grundstücke sind dabei unterschiedlichste Herangehensweisen zu erwarten. Prinzipiell wird im österreichischen Kataster zwischen Grundstücken im Grundsteuerkataster und Grundstücken im Grenzkataster unterschieden, die sich im Wesentlichen in der rechtlichen Definition der Grenze unterscheiden. Grundstücke im Grundsteuerkataster werden lt. Gesetz über die sich in der Natur ersichtlichen Grenzpunkte definiert, wodurch die Fragestellung, wie sich Grundeigentümer diesen Grenzverlauf merken, eine weitere wichtige Bedeutung erhält. Zur Untersuchung dieser Fragestellung wurde ein standardisierter Fragebogen erstellt, welcher in Zusammenarbeit mit dem Vermessungsbüro Dipl.-Ing. Dr.techn. W. Daxinger an ausgewählte Grundeigentümer verteilt wurde. Dabei wurde darauf geachtet, dass die Stichprobe der Datenerhebung drei unterschiedliche Nutzungsarten (Grundstücke im Baugebiet, Grundstücke mit landwirtschaftliche Nutzflächen und Waldgrundstücke) abdeckt. Die Befragung der 25 Teilnehmer erfolgte im Zuge von Grenzverhandlungen. Aufgrund der analysierten Daten zeigte sich, dass die Wahrnehmung der eigenen Grundstücksgrenze oft von der Art des Grundstücks abhängig ist und damit auch der Arbeitsaufwand, der in die Überprüfung und Instandhaltung der Grundstücksgrenze investiert wird.
Rücksteckung von Grenzkatasterkoordinaten im spannungsbehafteten Festpunktfeld
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2020
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Diese Arbeit befasst sich mit der Rücksteckung von Grenzkatasterkoordinaten im spannungsbehafteten Festpunktfeld und den damit einhergehenden technischen und rechtlichen Bestimmungen. Das österreichische Landeskoordinatensystem ist durch die amtlichen Festpunkte des Bundesamtes für Eich und Vermessungswesen physisch realisiert. Durch die historische Entwicklung treten im lokalen Festpunktfeld immer wieder Inhomogenitäten auf, die sich auch auf die daraus abgeleiteten Grenzpunktkoordinaten auswirken. Bei der Rücksteckung dieser Punkte anhand der Koordinaten der digitalen Katastralmappe und unter Anschluss an das Festpunktfeld nach aktueller Vermessungsverordnung treten teilweise Abweichungen auf, die die Anforderungen der Verordnung an die Nachbarschaftsgenauigkeit der Grenzpunkte überschreiten. Die Änderung von Koordinaten im rechtsverbindlichen Grenzkataster ist unter § 13 VermG gesetzlich geregelt. Die rechtliche Frage, ob eine Änderung im Festpunktfeld als Grund für die Berichtigung des Grenzkatasters nach § 13 VermG geltend gemacht werden kann, ist derzeit noch in einem Gerichtsverfahren beim Verwaltungsgerichtshof anhängig. Im Rahmen dieser Diplomarbeit werden verschiedene Methoden angewendet, die anhand von bekannten Werten der Festpunkte auf die Inhomogenitäten der Grenzpunkte schließen lassen sollen. Durch die distanzgewichtete Interpolation von Restklaffungen und Homogenvektoren können die Werte für die Grenzpunkte im Messgebiet ermittelt werden. Eine weitere Möglichkeit ist die lokale Anfelderung an das Festpunktfeld über die Messung und anschließende Helmert-Transformation von vorhandenen Grenzzeichen. Anhand von praktischen Beispielen werden die Methoden angewandt und auf deren Einsatztauglichkeit in der Katastervermessung geprüft. Es zeigt sich, dass die Interpolation von Restklaffungen und Homogenvektoren keine brauchbaren Ergebnisse liefert. Auch der Einsatz der flächenbasierten GIS-GRID Transformation führt zu keinen sinnvollen Ergebnissen und ist für die Verwendung im Kataster nicht zugelassen. Die Rücksteckung der Grenzpunkte über die lokale Anfelderung und die darauffolgende Änderung der Grenzkatasterkoordinaten nach § 13 VermG ist bei den Beispielen dieser Arbeit eine mögliche Variante. Dabei werden die Koordinaten der Grenzpunkte auf die erhaltenen Werte mit dem Anschluss an das Festpunktfeld nach aktueller Vermessungsverordnung berichtigt. Zusammenfassend kann gesagt werden, dass kein allgemeingültiger Ansatz für die Rücksteckung zu finden ist, da die Vorgehensweise immer auch die lokalen Gegebenheiten der Inhomogenitäten berücksichtigen muss. Hierfür ist es zwingend notwendig, die Arbeiten durch Vermessungsbefugte durchführen zu lassen, da diese Experten im Gebiet der Katastervermessung sind und die Problemstellung unter Berücksichtigung der technischen und rechtlichen Vorgaben lösen.
Diese Arbeit befasst sich mit der Rücksteckung von Grenzkatasterkoordinaten im spannungsbehafteten Festpunktfeld und den damit einhergehenden technischen und rechtlichen Bestimmungen. Das österreichische Landeskoordinatensystem ist durch die amtlichen Festpunkte des Bundesamtes für Eich und Vermessungswesen physisch realisiert. Durch die historische Entwicklung treten im lokalen Festpunktfeld immer wieder Inhomogenitäten auf, die sich auch auf die daraus abgeleiteten Grenzpunktkoordinaten auswirken. Bei der Rücksteckung dieser Punkte anhand der Koordinaten der digitalen Katastralmappe und unter Anschluss an das Festpunktfeld nach aktueller Vermessungsverordnung treten teilweise Abweichungen auf, die die Anforderungen der Verordnung an die Nachbarschaftsgenauigkeit der Grenzpunkte überschreiten. Die Änderung von Koordinaten im rechtsverbindlichen Grenzkataster ist unter § 13 VermG gesetzlich geregelt. Die rechtliche Frage, ob eine Änderung im Festpunktfeld als Grund für die Berichtigung des Grenzkatasters nach § 13 VermG geltend gemacht werden kann, ist derzeit noch in einem Gerichtsverfahren beim Verwaltungsgerichtshof anhängig. Im Rahmen dieser Diplomarbeit werden verschiedene Methoden angewendet, die anhand von bekannten Werten der Festpunkte auf die Inhomogenitäten der Grenzpunkte schließen lassen sollen. Durch die distanzgewichtete Interpolation von Restklaffungen und Homogenvektoren können die Werte für die Grenzpunkte im Messgebiet ermittelt werden. Eine weitere Möglichkeit ist die lokale Anfelderung an das Festpunktfeld über die Messung und anschließende Helmert-Transformation von vorhandenen Grenzzeichen. Anhand von praktischen Beispielen werden die Methoden angewandt und auf deren Einsatztauglichkeit in der Katastervermessung geprüft. Es zeigt sich, dass die Interpolation von Restklaffungen und Homogenvektoren keine brauchbaren Ergebnisse liefert. Auch der Einsatz der flächenbasierten GIS-GRID Transformation führt zu keinen sinnvollen Ergebnissen und ist für die Verwendung im Kataster nicht zugelassen. Die Rücksteckung der Grenzpunkte über die lokale Anfelderung und die darauffolgende Änderung der Grenzkatasterkoordinaten nach § 13 VermG ist bei den Beispielen dieser Arbeit eine mögliche Variante. Dabei werden die Koordinaten der Grenzpunkte auf die erhaltenen Werte mit dem Anschluss an das Festpunktfeld nach aktueller Vermessungsverordnung berichtigt. Zusammenfassend kann gesagt werden, dass kein allgemeingültiger Ansatz für die Rücksteckung zu finden ist, da die Vorgehensweise immer auch die lokalen Gegebenheiten der Inhomogenitäten berücksichtigen muss. Hierfür ist es zwingend notwendig, die Arbeiten durch Vermessungsbefugte durchführen zu lassen, da diese Experten im Gebiet der Katastervermessung sind und die Problemstellung unter Berücksichtigung der technischen und rechtlichen Vorgaben lösen.
Welches Interpolationsverfahren ist für die Prädiktion von digitalen Geländehöhendaten nach den ICAO-Qualitätsanforderungen optimal?
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2020
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
In Zeiten der Digitalisierung steht man in der Flugsicherung vor der Herausforderung, große Mengen an Geodaten unterschiedlicher Qualität und Referenzsysteme in einem einheitlichen System zu integrieren und trotzdem zu gewährleisten, dass Mindeststandards eingehalten werden. Zentrale Werkzeuge zur Erstellung und Bearbeitung digitaler Geländehöhenmodelle (DHM) sind Interpolationsverfahren und die damit verbundenen Schätzungen von Höhenwerten. Ziel dieser Diplomarbeit ist die Evaluierung des geeignetsten Verfahrens unter Anbetracht der Anforderungen der internationalen Zivilluftfahrtorganisation (ICAO). Dazu wird die Forschungsfrage gestellt: Welches Interpolationsverfahren ist für die Prädiktion von digitalen Geländehöhendaten nach den ICAO-Qualitätsanforderungen optimal? Zur Beantwortung dieser Frage wurde der aktuelle Stand der Forschung für räumliche Interpolationsverfahren evaluiert. Aufbauend wurde ein Anforderungsprofil anhand der ICAO Qualitätsanforderungen aufgestellt. Unter der Prämisse, dass das Interpolationsergebnis aus sicherheitskritischen Gründen das reale Gelände möglichst genau annähern soll, wurden die Kriging- und Spline-Interpolation, aufgrund ihrer fortgeschrittenen und flexiblen Modelle, für weiterführende Analysen ausgewählt. Ein zweiter wesentlicher Punkt ist die Forderung nach Genauigkeitsinformationen und Konfidenzbereichen auf Datenebene (pro Feature bzw. Rasterzelle). Die Evaluierung der optimalen Interpolationsmethode erfolgte auf Basis von Referenzdaten und Berechnung verschiedener Interpolationsmodelle ausgewählter Gebiete für das Land Niederösterreich. Durch Vergleich der Interpolationsergebnisse wurde die optimale Interpolationsmethode ausgewählt. Allgemein lässt sich sagen, dass es keine eindeutige Antwort dafür gibt, welche Interpolationsmethode generell am genauesten arbeitet. Die Wahl der Interpolationsmethode ist stark vom Einsatzgebiet abhängig. Richtet man sich streng nach den ICAO-Anforderungen, ist die Angabe eines Grenzwertes mit zugehöriger Konfidenz aus den Daten einer Kreuzvalidierung für die Qualitätsbeurteilung ausreichend, solange dieser Grenzwert den Bestimmungen des jeweiligen Anforderungsgebietes genügt. Allgemein zeigte sich, dass Universal Kriging die besten Resultate liefert. Zudem ermöglicht Kriging die Ableitung von punktuellen Genauigkeitsinformationen. Da eine sorgfältige Datenanalyse maßgeblich für die Genauigkeit des Endresultats ist und berechnete Genauigkeitsinformationen auf Datenebene weitere regionale und vor allem statistisch belastbare Aussagen ermöglichen, ist Kriging für die Prädiktion von digitalen Geländehöhendaten im Kontext der ICAO-Qualitätsanforderungen optimal geeignet. Liegen auf Basis statistischer Interpolationsmethoden Schätzungen für die Genauigkeiten von Interpolationspunkten vor, können diese variabel und je nach Anwendungsfall im Qualitätsbeurteilungsprozess berücksichtigt werden. Allgemein kann gefolgert werden, dass sich ein stochastisches Modell und die Kreuzvalidierung im Rahmen des Anwendungsfalls der Flugsicherung komplementieren und somit die besten Mittel für einen möglichst sicheren Qualitätsbeurteilungsprozess bereitstellen.
In Zeiten der Digitalisierung steht man in der Flugsicherung vor der Herausforderung, große Mengen an Geodaten unterschiedlicher Qualität und Referenzsysteme in einem einheitlichen System zu integrieren und trotzdem zu gewährleisten, dass Mindeststandards eingehalten werden. Zentrale Werkzeuge zur Erstellung und Bearbeitung digitaler Geländehöhenmodelle (DHM) sind Interpolationsverfahren und die damit verbundenen Schätzungen von Höhenwerten. Ziel dieser Diplomarbeit ist die Evaluierung des geeignetsten Verfahrens unter Anbetracht der Anforderungen der internationalen Zivilluftfahrtorganisation (ICAO). Dazu wird die Forschungsfrage gestellt: Welches Interpolationsverfahren ist für die Prädiktion von digitalen Geländehöhendaten nach den ICAO-Qualitätsanforderungen optimal? Zur Beantwortung dieser Frage wurde der aktuelle Stand der Forschung für räumliche Interpolationsverfahren evaluiert. Aufbauend wurde ein Anforderungsprofil anhand der ICAO Qualitätsanforderungen aufgestellt. Unter der Prämisse, dass das Interpolationsergebnis aus sicherheitskritischen Gründen das reale Gelände möglichst genau annähern soll, wurden die Kriging- und Spline-Interpolation, aufgrund ihrer fortgeschrittenen und flexiblen Modelle, für weiterführende Analysen ausgewählt. Ein zweiter wesentlicher Punkt ist die Forderung nach Genauigkeitsinformationen und Konfidenzbereichen auf Datenebene (pro Feature bzw. Rasterzelle). Die Evaluierung der optimalen Interpolationsmethode erfolgte auf Basis von Referenzdaten und Berechnung verschiedener Interpolationsmodelle ausgewählter Gebiete für das Land Niederösterreich. Durch Vergleich der Interpolationsergebnisse wurde die optimale Interpolationsmethode ausgewählt. Allgemein lässt sich sagen, dass es keine eindeutige Antwort dafür gibt, welche Interpolationsmethode generell am genauesten arbeitet. Die Wahl der Interpolationsmethode ist stark vom Einsatzgebiet abhängig. Richtet man sich streng nach den ICAO-Anforderungen, ist die Angabe eines Grenzwertes mit zugehöriger Konfidenz aus den Daten einer Kreuzvalidierung für die Qualitätsbeurteilung ausreichend, solange dieser Grenzwert den Bestimmungen des jeweiligen Anforderungsgebietes genügt. Allgemein zeigte sich, dass Universal Kriging die besten Resultate liefert. Zudem ermöglicht Kriging die Ableitung von punktuellen Genauigkeitsinformationen. Da eine sorgfältige Datenanalyse maßgeblich für die Genauigkeit des Endresultats ist und berechnete Genauigkeitsinformationen auf Datenebene weitere regionale und vor allem statistisch belastbare Aussagen ermöglichen, ist Kriging für die Prädiktion von digitalen Geländehöhendaten im Kontext der ICAO-Qualitätsanforderungen optimal geeignet. Liegen auf Basis statistischer Interpolationsmethoden Schätzungen für die Genauigkeiten von Interpolationspunkten vor, können diese variabel und je nach Anwendungsfall im Qualitätsbeurteilungsprozess berücksichtigt werden. Allgemein kann gefolgert werden, dass sich ein stochastisches Modell und die Kreuzvalidierung im Rahmen des Anwendungsfalls der Flugsicherung komplementieren und somit die besten Mittel für einen möglichst sicheren Qualitätsbeurteilungsprozess bereitstellen.
Geophysical investigations in wineyards with electromagnetic method
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2020
Betreuer: Ass.-Prof. Dr. Adrian Flores-Orozco, Univ.Ass. Dipl.-Ing. Matthias Steiner
Kurzfassung/Abstract
Die vorliegende Arbeit beschäftigt sich mit der Anwendung des elektromagnetischen Induktionsverfahrens bei kleiner Induktionszahl (CMD Mini-Explorer) im Weinbau. Diese Messmethode, welche kostengünstig und schnell ist, hat sich schon länger in der Präzisionslandwirtschaft bewiesen und wird in den letzten Jahren auch im Präzisionsweinbau erforscht. Das Ziel der Arbeit ist es, die Vor- und Nachteile des CMD Mini-Explorers bei dessen Einsatz im Weingarten aufzuzeigen. Dabei soll festgestellt werden, ob mit dem CMD Mini-Explorer Leitfähigkeitsänderungen und somit auch räumliche Änderungen der Bodeneigenschaften in Weingärten ausgemacht werden können. Außerdem soll sie sich mit der Frage beschäftigen, ob und wie gut es mit einem durch die elektrische Leitfähigkeit ermittelten Tongehalt möglich ist, problematische Stellen in einem Weingarten zu detektieren. Letztendlich soll auch beurteilt werden, wo sich der Einsatz des elektromagnetischen Induktionsverfahrens im Weinbau besonders lohnen würde. Um diese Fragen beantworten zu können, wird die scheinbare elektrische Leitfähigkeit mit dem CMD Mini-Explorer in 8 verschiedenen Weingärten im Seewinkel aufgenommen. Zur Kontrolle werden ebenfalls geoelektrische Messungen (ERT, IP) durchgeführt. Außerdem wird ein Zusammenhang (Regressionsgerade) von elektrischer Leitfähigkeit und Tongehalt mittels entnommenen Bodenproben und gemessenen scheinbaren elektrischen Leitfähigkeiten im Hydrological Open Air Laboratory in Petzenkirchen ermittelt.
Die vorliegende Arbeit beschäftigt sich mit der Anwendung des elektromagnetischen Induktionsverfahrens bei kleiner Induktionszahl (CMD Mini-Explorer) im Weinbau. Diese Messmethode, welche kostengünstig und schnell ist, hat sich schon länger in der Präzisionslandwirtschaft bewiesen und wird in den letzten Jahren auch im Präzisionsweinbau erforscht. Das Ziel der Arbeit ist es, die Vor- und Nachteile des CMD Mini-Explorers bei dessen Einsatz im Weingarten aufzuzeigen. Dabei soll festgestellt werden, ob mit dem CMD Mini-Explorer Leitfähigkeitsänderungen und somit auch räumliche Änderungen der Bodeneigenschaften in Weingärten ausgemacht werden können. Außerdem soll sie sich mit der Frage beschäftigen, ob und wie gut es mit einem durch die elektrische Leitfähigkeit ermittelten Tongehalt möglich ist, problematische Stellen in einem Weingarten zu detektieren. Letztendlich soll auch beurteilt werden, wo sich der Einsatz des elektromagnetischen Induktionsverfahrens im Weinbau besonders lohnen würde. Um diese Fragen beantworten zu können, wird die scheinbare elektrische Leitfähigkeit mit dem CMD Mini-Explorer in 8 verschiedenen Weingärten im Seewinkel aufgenommen. Zur Kontrolle werden ebenfalls geoelektrische Messungen (ERT, IP) durchgeführt. Außerdem wird ein Zusammenhang (Regressionsgerade) von elektrischer Leitfähigkeit und Tongehalt mittels entnommenen Bodenproben und gemessenen scheinbaren elektrischen Leitfähigkeiten im Hydrological Open Air Laboratory in Petzenkirchen ermittelt.