- Home  »
- VGI - Die Zeitschrift  »
- Abschlussarbeiten  »
- Jahrgang 2023
Abschlussarbeiten 2023
Assessment of soil moisture derived from radar satellite data in the Arctic for the purpose of permafrost studies
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2023
Betreuer: Priv.-Doz. Dipl.-Geograf Dr. Annett Bartsch, Dr. Birgit Heim
Kurzfassung/Abstract
Das Tiefland der Arktischen Tundra ist zu einem großen Teil von Permafrost unterlagert, der als wesentliche Klimavariable gilt. Beobachtungen zeigen, dass sich dieses Gebiet in den letzten Jahrzehnten fast viermal schneller erwärmt hat als der Rest der Welt. Durch die Abgeschiedenheit großer Teile der Arktis, können vor Ort kaum Bodendaten erhoben werden, weshalb Satellitendaten hier von entscheidender Bedeutung sind. Daten über die Bodenfeuchte sind essenziell für Anwendungen im Zusammenhang mit Permafrost, insbesondere für Modellierungs- und Flux-Up-Scaling-Studien. Daten des aktiven C-Band-Mikrowellen-Fernerkundungsinstruments Advanced Scatterometer (ASCAT) werden seit 2008 verwendet, um ein grob aufgelöstes (25 km) Bodenfeuchteprodukt (Surface Soil Moisture, SSM) in nahezu Echtzeit zu erzeugen. Die Herausforderungen für die Ableitung von SSM aus Radardaten, die mit dem spezifischen Charakter der Arktis zusammenhängen, sind z.B. gefrorener Boden, Landschaftsheterogenität oder saisonale Schwankungen. In der vorliegenden Arbeit wurden solche typischerweise erwarteten Einflüsse für durch C-Band-Rückstreuung abgeleitete SSM in der Arktis untersucht. Auf der Grundlage eines Vergleichs mit den Ergebnissen eines Landoberflächenmodells und Untersuchungen von C-Band-SAR-Daten mit feinerer Auflösung konnten Rückstreuungsabweichungen festgestellt werden, die eher auf die Oberflächenrauhigkeit als auf tatsächliche SSM-Variationen zurückzuführen sind. Der Einfluss von Wasseroberflächen bildete, zusammen mit Untersuchungen von in-situ-Bodenfeuchtedaten und meteorologischen Daten, die Grundlage, um Vorsichtsmaßnahmen für die Verwendung des Satellitenprodukts sowie dessen Verbesserungen vorzuschlagen. Der potenzielle systematische Fehler lässt sich durch den Seeanteil erklären und zu einem großen Teil auf den Wind zurückführen. Daher wird eine Korrektur mittels meteorologischer Daten für seenreiche Gebiete vorgeschlagen. Die Verwendung von Daten mit höherer räumlicher Auflösung als sie derzeit für operative globale SSM verfügbar ist, ist in Permafrostumgebungen im Tiefland erforderlich. Es gibt in der Tundra starke Schwankungen der Bodenfeuchte im Satellitenprodukt über den Sommer, was auf die Anwendbarkeit der zeitlichen Entwicklung von C-Band-Rückstreuprodukten der Bodenfeuchte hindeutet. Messungen der Bodentemperatur deuten jedoch auf eine weitere Fehlerquelle, einen Einfluss der Temperaturschwankungen in der ersten Sommerhälfte hin.
Das Tiefland der Arktischen Tundra ist zu einem großen Teil von Permafrost unterlagert, der als wesentliche Klimavariable gilt. Beobachtungen zeigen, dass sich dieses Gebiet in den letzten Jahrzehnten fast viermal schneller erwärmt hat als der Rest der Welt. Durch die Abgeschiedenheit großer Teile der Arktis, können vor Ort kaum Bodendaten erhoben werden, weshalb Satellitendaten hier von entscheidender Bedeutung sind. Daten über die Bodenfeuchte sind essenziell für Anwendungen im Zusammenhang mit Permafrost, insbesondere für Modellierungs- und Flux-Up-Scaling-Studien. Daten des aktiven C-Band-Mikrowellen-Fernerkundungsinstruments Advanced Scatterometer (ASCAT) werden seit 2008 verwendet, um ein grob aufgelöstes (25 km) Bodenfeuchteprodukt (Surface Soil Moisture, SSM) in nahezu Echtzeit zu erzeugen. Die Herausforderungen für die Ableitung von SSM aus Radardaten, die mit dem spezifischen Charakter der Arktis zusammenhängen, sind z.B. gefrorener Boden, Landschaftsheterogenität oder saisonale Schwankungen. In der vorliegenden Arbeit wurden solche typischerweise erwarteten Einflüsse für durch C-Band-Rückstreuung abgeleitete SSM in der Arktis untersucht. Auf der Grundlage eines Vergleichs mit den Ergebnissen eines Landoberflächenmodells und Untersuchungen von C-Band-SAR-Daten mit feinerer Auflösung konnten Rückstreuungsabweichungen festgestellt werden, die eher auf die Oberflächenrauhigkeit als auf tatsächliche SSM-Variationen zurückzuführen sind. Der Einfluss von Wasseroberflächen bildete, zusammen mit Untersuchungen von in-situ-Bodenfeuchtedaten und meteorologischen Daten, die Grundlage, um Vorsichtsmaßnahmen für die Verwendung des Satellitenprodukts sowie dessen Verbesserungen vorzuschlagen. Der potenzielle systematische Fehler lässt sich durch den Seeanteil erklären und zu einem großen Teil auf den Wind zurückführen. Daher wird eine Korrektur mittels meteorologischer Daten für seenreiche Gebiete vorgeschlagen. Die Verwendung von Daten mit höherer räumlicher Auflösung als sie derzeit für operative globale SSM verfügbar ist, ist in Permafrostumgebungen im Tiefland erforderlich. Es gibt in der Tundra starke Schwankungen der Bodenfeuchte im Satellitenprodukt über den Sommer, was auf die Anwendbarkeit der zeitlichen Entwicklung von C-Band-Rückstreuprodukten der Bodenfeuchte hindeutet. Messungen der Bodentemperatur deuten jedoch auf eine weitere Fehlerquelle, einen Einfluss der Temperaturschwankungen in der ersten Sommerhälfte hin.
Stark-gekoppelter Kalman Filter Ansatz zur Integration von GNSS/INS/Odometer Daten zur Bestimmung von Gleistrajektorien
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2023
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Seit geraumer Zeit werden große Anstrengungen zur Entwicklung ausgereifter Algorithmen zur Kombination der satellitengestützten Navigationsverfahren mit zusätzlichen Sensoren unternommen, um eine möglichst präzise und robuste Bestimmung der Fahrzeugtrajektorie zu gewährleisten. Die ungestützte GNSS Einzelpunktbestimmung mittels Codestrecken erlaubt heute global eine Fahrzeugpositionierung im +/-3-5m Bereich. Die meisten geodätischen Anwendungen erfordern allerdings eine höhere Genauigkeit für die statische Positionierung. Aber auch die kontinuierliche Verfolgung von bewegten Fahrzeugen zur Festlegung von Position, Geschwindigkeit und Orientierung stellt Anforderungen, die mit der GNSS Einzelpunktbestimmung nicht zur erfüllen sind. Zum Beispiel basiert die Positionierung von Zügen üblicherweise auf Odometermessungen, welche über die Radumdrehungen und den Radumfang die durchfahrene Strecke festlegen können. Die Messungen des Odometers werden zusätzlich an fixen Positionen mit Hilfe von Balisen initialisiert. Eine Balise ist ein elektronischer Transponder der zwischen den Schienen des Eisenbahngleises als Teil eines automatischen Zugbeeinflussungssystems (ATP) montiert ist. Diese Sensoren sind ein integraler Bestandteil des European Train Control Systems. Balise und Odometer bestimmen den durchfahrenen Streckenabschnitt und die Position des Zuges im Streckenabschnitt. Die Balisen sind jedoch teure Sensoren, die über etwa 250.000 km Eisenbahngleise in Europa platziert werden müssen. Daher gibt es derzeit viele Entwicklungen zur raumgestützten Positionierung von Zügen durch EGNOS bzw. durch die Fusion der Messungen von am Triebfahrzeug angebrachten Navigationssensoren wie etwa GNSS/IMU/Odometer. Die Sensorfusion ist nicht nur kosteneffizient und präzise, sie ist auch besonders gut für die Anwendung bei Nebenstrecken der Eisenbahn geeignet. Auf den Bahnhauptstrecken wird aufgrund der höheren Geschwindigkeiten wohl auch in Zukunft die Positionierung auf Basis von Balisen erfolgen. GNSS Verfahren im differentiellen Modus liefern Information über die genaue Position und Geschwindigkeit, während die IMU die Position, Geschwindigkeit und direkte räumliche Orientierung des Fahrzeugs bestimmt. Bei kurzzeitiger Unterbrechung der GNSS-Signalverfolgung (z.B. in Tunneln oder in signal-abgeschatteten Gebieten) kann dieser Ausfall durch die Prozessierung der Messungen des IMU Sensors in Kombination mit dem Odometer überbrückt werden. In den letzten Jahren wurde vom Autor dieser Dissertationsschrift ein lose- gekoppelter Kalman-Filter-Algorithmus entwickelt, der die oben genannten Anforderungen erfüllt. Gleichzeitig wurde auch Software zur eng-gekoppelten Kalmanfilterung entwickelt. Diese Software ermöglicht die Fusion von GNSS- und IMU-Daten und gewährleistet eine zuverlässige Positionierung von sich schnell und langsam bewegenden Fahrzeugen, wie Autos oder Zügen. Der erste in dieser Doktorarbeit angeführte praktische Anwendungsfall befasst sich mit der Navigation entlang einer Eisenbahnstrecke in der Nähe von Wien. Die am Zug gewonnenen GNSS Beobachtungen wurden mit Beobachtungen des Referenzstationsnetzwerks TEPOS (T-Kom Services real-time positioning) korrigiert und im Anschluss mit IMU Beobachtungen und Odometermessungen verarbeitet. Die Ergebnisse der Berechnung wurden mit einer Referenzlösung einer bekannten kommerziellen Software verglichen. Das Beispiel zeigt, dass mit dem lose gekoppelten Kalman Filter eine Positionierungsgenauigkeit von wenigen Zentimetern erreicht werden kann. Ist das GNSS Signal blockiert, so verringert sich die Positionierungsgenauigkeit für die verbleibende IMU/Odometer Sensorkombination in den Sub-Meter Bereich. Im zweiten Anwendungsfall wurden eine iMAR IMU und ein JAVAD GNSS-Empfänger verwendet, welche an einem privaten Auto befestigt waren. Die Sensordaten wurden im eng-gekoppelten Filter verarbeitet. Die Qualität der Lösung wurde wieder anhand von Trajektorien bewertet, die mit der kommerziellen Software Inertial Explorer von NovAtel berechnet wurden. Alle Sensordaten und Referenz-Trajektorien dieses zweiten Anwendungsfalls wurden dankenswerterweise von der Forschungsgruppe Navigation der TU Graz bereitgestellt.
Seit geraumer Zeit werden große Anstrengungen zur Entwicklung ausgereifter Algorithmen zur Kombination der satellitengestützten Navigationsverfahren mit zusätzlichen Sensoren unternommen, um eine möglichst präzise und robuste Bestimmung der Fahrzeugtrajektorie zu gewährleisten. Die ungestützte GNSS Einzelpunktbestimmung mittels Codestrecken erlaubt heute global eine Fahrzeugpositionierung im +/-3-5m Bereich. Die meisten geodätischen Anwendungen erfordern allerdings eine höhere Genauigkeit für die statische Positionierung. Aber auch die kontinuierliche Verfolgung von bewegten Fahrzeugen zur Festlegung von Position, Geschwindigkeit und Orientierung stellt Anforderungen, die mit der GNSS Einzelpunktbestimmung nicht zur erfüllen sind. Zum Beispiel basiert die Positionierung von Zügen üblicherweise auf Odometermessungen, welche über die Radumdrehungen und den Radumfang die durchfahrene Strecke festlegen können. Die Messungen des Odometers werden zusätzlich an fixen Positionen mit Hilfe von Balisen initialisiert. Eine Balise ist ein elektronischer Transponder der zwischen den Schienen des Eisenbahngleises als Teil eines automatischen Zugbeeinflussungssystems (ATP) montiert ist. Diese Sensoren sind ein integraler Bestandteil des European Train Control Systems. Balise und Odometer bestimmen den durchfahrenen Streckenabschnitt und die Position des Zuges im Streckenabschnitt. Die Balisen sind jedoch teure Sensoren, die über etwa 250.000 km Eisenbahngleise in Europa platziert werden müssen. Daher gibt es derzeit viele Entwicklungen zur raumgestützten Positionierung von Zügen durch EGNOS bzw. durch die Fusion der Messungen von am Triebfahrzeug angebrachten Navigationssensoren wie etwa GNSS/IMU/Odometer. Die Sensorfusion ist nicht nur kosteneffizient und präzise, sie ist auch besonders gut für die Anwendung bei Nebenstrecken der Eisenbahn geeignet. Auf den Bahnhauptstrecken wird aufgrund der höheren Geschwindigkeiten wohl auch in Zukunft die Positionierung auf Basis von Balisen erfolgen. GNSS Verfahren im differentiellen Modus liefern Information über die genaue Position und Geschwindigkeit, während die IMU die Position, Geschwindigkeit und direkte räumliche Orientierung des Fahrzeugs bestimmt. Bei kurzzeitiger Unterbrechung der GNSS-Signalverfolgung (z.B. in Tunneln oder in signal-abgeschatteten Gebieten) kann dieser Ausfall durch die Prozessierung der Messungen des IMU Sensors in Kombination mit dem Odometer überbrückt werden. In den letzten Jahren wurde vom Autor dieser Dissertationsschrift ein lose- gekoppelter Kalman-Filter-Algorithmus entwickelt, der die oben genannten Anforderungen erfüllt. Gleichzeitig wurde auch Software zur eng-gekoppelten Kalmanfilterung entwickelt. Diese Software ermöglicht die Fusion von GNSS- und IMU-Daten und gewährleistet eine zuverlässige Positionierung von sich schnell und langsam bewegenden Fahrzeugen, wie Autos oder Zügen. Der erste in dieser Doktorarbeit angeführte praktische Anwendungsfall befasst sich mit der Navigation entlang einer Eisenbahnstrecke in der Nähe von Wien. Die am Zug gewonnenen GNSS Beobachtungen wurden mit Beobachtungen des Referenzstationsnetzwerks TEPOS (T-Kom Services real-time positioning) korrigiert und im Anschluss mit IMU Beobachtungen und Odometermessungen verarbeitet. Die Ergebnisse der Berechnung wurden mit einer Referenzlösung einer bekannten kommerziellen Software verglichen. Das Beispiel zeigt, dass mit dem lose gekoppelten Kalman Filter eine Positionierungsgenauigkeit von wenigen Zentimetern erreicht werden kann. Ist das GNSS Signal blockiert, so verringert sich die Positionierungsgenauigkeit für die verbleibende IMU/Odometer Sensorkombination in den Sub-Meter Bereich. Im zweiten Anwendungsfall wurden eine iMAR IMU und ein JAVAD GNSS-Empfänger verwendet, welche an einem privaten Auto befestigt waren. Die Sensordaten wurden im eng-gekoppelten Filter verarbeitet. Die Qualität der Lösung wurde wieder anhand von Trajektorien bewertet, die mit der kommerziellen Software Inertial Explorer von NovAtel berechnet wurden. Alle Sensordaten und Referenz-Trajektorien dieses zweiten Anwendungsfalls wurden dankenswerterweise von der Forschungsgruppe Navigation der TU Graz bereitgestellt.
The joint inversion of seismic refraction and electrical resistivity data: A quantitative approach to estimate hydrogeological parameters in an imaging framework
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2023
Betreuer: Prof. Dr. Adrian Flores-Orozco
Kurzfassung/Abstract
Im Rahmen von unweltbezogenen bzw. ingenieurtechnischen Untersuchungen werden die Eigenschaften des Untergrunds traditionell mit direkten Messmethoden erfasst. Jedoch sind die gewonnenen Daten in ihrer räumlichen Auflösung begrenzt, da direkte Untersuchungen meist nur punktuell durchgeführt werden können (z.B. in Bohrlöchern). Im Gegensatz dazu sind geophysikalische Methoden in der Lage, Informationen über die Beschaffenheit des Untergrunds in nicht-invasiver Weise und mit hoher räumlicher und zeitlicher Auflösung zu bestimmen, und haben sich daher als geeignete Ergänzung von direkten Methoden erwiesen. Die elektrische Widerstandstomographie (electrical resistivity tomography; ERT) und die seismische Refraktionstomographie (seismic refraction tomography; SRT) sind in der Lage Veränderungen der hydrogeologischen bzw. chemischen Eigenschaften des Untergrunds zu detektieren und werden daher häufig für oberflächennahe Untersuchungen eingesetzt. Die Kombination diese komplementären geophysikalischen Methoden ist ein gängiger Ansatz, um den Einfluss von Unsicherheiten bzw. Fehler im Zusammenhang mit der Datenerfassung, -verarbeitung und -inversion auf die Ergebnisse zu vermindern. Das sorgfältige Prozessieren der geophysikalischen Daten ist von zentraler Bedeutung, um verlässliche Modelle der Untergrundeigenschaften zu erhalten. Insbesondere die Prozessierung von ERT-Datensätzen kann basierend auf etablierten Richtlinien und Algorithmen weitestgehend automatisiert werden. Im Gegensatz dazu handelt es sich bei der Prozessierung von SRT-Daten um einen interaktiven Vorgang, der maßgeblich von der Erfahrung der auswertenden Person beeinflusst wird und zudem oftmals den Einsatz von kommerziellen Softwarelösungen erfordert. Dementsprechend besteht begründeter Bedarf an der Entwicklung von lizenzfreien bzw. open-source Lösungen, die transparente und automatisierte Abläufe im Zusammenhang mit der Prozessierung von SRT-Daten ermöglichen. Bei der Inversion von geophysikalischen Daten handelt es sich um ein mehrdeutiges Problem, wodurch insbesondere die Interpretation der Inversionsergebnisse mit Unsicherheiten behaftet sein kann, die zusätzlich verstärkt werden, wenn die geophysikalischen Parameter in andere Größen umgerechnet werden (z.B. die von direkten Methoden erfassten Untergrundeigenschaften). In dieser Hinsicht ist eine verbesserte Interpretation durch die Kombination komplementärer Inversionsergebnisse möglich, jedoch setzt dies voraus, dass die durch unabhängige Inversionen erhaltenen Untergrundmodelle in sich konsistent sind. Um diese Nachteile zu beheben, hat sich die petrophysikalisch gekoppelte Inversion (petrophysical joint inversion; PJI) von ERT- und SRT-Daten als ein geeignetes Verfahren erwiesen, welches die direkte quantitative Bestimmung der relevanten Untergrundeigenschaften (z.B. hydrogeologische Parameter) ermöglicht. Jedoch erfordert die Anwendung solcher PJI-Verfahren eine adäquate Parametrisierung des zugrundeliegenden petrophysikalischen Modells, die wiederum von Unsicherheiten betroffen sein kann. Daher untersucht diese Arbeit die Möglichkeit, strukturelle und petrophysikalische Randbedingungen in der petrophysikalisch gekoppelten Inversion zu berücksichtigen, um konsistente Untergrundmodelle zu erhalten. Bei einem hohen Anteil von tonigen Sedimenten oder organischem Material ist es essentiell, dass das dem PJI-Verfahren zugrundeliegende petrophysikalische Modell den Einfluss der Oberflächenleitfähigkeit auf die beobachteten elektrischen Eigenschaften des Untergrunds berücksichtigt. Wird dieser Einfluss bei der PJI vernachlässigt, führt dies zu einer fehlerhaften quantitativen Bestimmung der hydrogeologischen Untergrundeigenschaften. Dementsprechend wird in dieser Arbeit das eingesetzte PJI-Verfahren erweitert, um den Einfluss der Oberflächenleitfähigkeit im Zuge der Inversion, d.h., bei der Parameterschätzung, zu berücksichtigen. Dieses modifizierte PJI-Verfahren quantifiziert die Oberflächenleitfähigkeit basierend auf ERT-Daten, die bei einer niedrigen und einer hohen Frequenz gemessen werden. Die im Rahmen dieser Arbeit erzielten Resultate lassen sich wie folgt zusammenfassen: (i) Entwicklung einer Softwarelösung für die Modellierung und Prozessierung von SRT-Daten basierend auf open-source python-Bibliotheken; (ii) die Verwendung eines Porositätsmodells als Randbedingung in der PJI kompensiert einen etwaigen geringen Kontrast in den physikalischen Eigenschaften verschiedener Untergrundmaterialien und kann darüber hinaus als zeitliche Randbedingung fungieren; (iii) der frequenzabhängige Effekt der Oberflächenleitfähigkeit kann im Zuge der PJI basierend auf Leitfähigkeitsmessungen bei einer hohen und einer niedrigen Frequenz berücksichtigt werden; (iv) das erweitertete PJI-Verfahren ermöglicht die quantitative Bestimmung hydrogeologischer Parameter (insbesondere Wassergehalt und hyrdaulische Leitfähigkeit) in unterschiedlichen Untersuchungsgebieten, z.B. gefrorener Untergrund in alpinen Regionen, Deponien, Hangrutschungen und ungestörte natürliche Sedimente; (v) das verwendete PJI-Verfahren kann sowohl hinsichtlich der zu invertierenden Datensätze als auch der Zielparameter individuell angepasst werden, wodurch zukünftige Erweiterungen basierend auf weiteren geophysikalischen Methoden und petrophysikalischen Beziehungen möglich sind.
Im Rahmen von unweltbezogenen bzw. ingenieurtechnischen Untersuchungen werden die Eigenschaften des Untergrunds traditionell mit direkten Messmethoden erfasst. Jedoch sind die gewonnenen Daten in ihrer räumlichen Auflösung begrenzt, da direkte Untersuchungen meist nur punktuell durchgeführt werden können (z.B. in Bohrlöchern). Im Gegensatz dazu sind geophysikalische Methoden in der Lage, Informationen über die Beschaffenheit des Untergrunds in nicht-invasiver Weise und mit hoher räumlicher und zeitlicher Auflösung zu bestimmen, und haben sich daher als geeignete Ergänzung von direkten Methoden erwiesen. Die elektrische Widerstandstomographie (electrical resistivity tomography; ERT) und die seismische Refraktionstomographie (seismic refraction tomography; SRT) sind in der Lage Veränderungen der hydrogeologischen bzw. chemischen Eigenschaften des Untergrunds zu detektieren und werden daher häufig für oberflächennahe Untersuchungen eingesetzt. Die Kombination diese komplementären geophysikalischen Methoden ist ein gängiger Ansatz, um den Einfluss von Unsicherheiten bzw. Fehler im Zusammenhang mit der Datenerfassung, -verarbeitung und -inversion auf die Ergebnisse zu vermindern. Das sorgfältige Prozessieren der geophysikalischen Daten ist von zentraler Bedeutung, um verlässliche Modelle der Untergrundeigenschaften zu erhalten. Insbesondere die Prozessierung von ERT-Datensätzen kann basierend auf etablierten Richtlinien und Algorithmen weitestgehend automatisiert werden. Im Gegensatz dazu handelt es sich bei der Prozessierung von SRT-Daten um einen interaktiven Vorgang, der maßgeblich von der Erfahrung der auswertenden Person beeinflusst wird und zudem oftmals den Einsatz von kommerziellen Softwarelösungen erfordert. Dementsprechend besteht begründeter Bedarf an der Entwicklung von lizenzfreien bzw. open-source Lösungen, die transparente und automatisierte Abläufe im Zusammenhang mit der Prozessierung von SRT-Daten ermöglichen. Bei der Inversion von geophysikalischen Daten handelt es sich um ein mehrdeutiges Problem, wodurch insbesondere die Interpretation der Inversionsergebnisse mit Unsicherheiten behaftet sein kann, die zusätzlich verstärkt werden, wenn die geophysikalischen Parameter in andere Größen umgerechnet werden (z.B. die von direkten Methoden erfassten Untergrundeigenschaften). In dieser Hinsicht ist eine verbesserte Interpretation durch die Kombination komplementärer Inversionsergebnisse möglich, jedoch setzt dies voraus, dass die durch unabhängige Inversionen erhaltenen Untergrundmodelle in sich konsistent sind. Um diese Nachteile zu beheben, hat sich die petrophysikalisch gekoppelte Inversion (petrophysical joint inversion; PJI) von ERT- und SRT-Daten als ein geeignetes Verfahren erwiesen, welches die direkte quantitative Bestimmung der relevanten Untergrundeigenschaften (z.B. hydrogeologische Parameter) ermöglicht. Jedoch erfordert die Anwendung solcher PJI-Verfahren eine adäquate Parametrisierung des zugrundeliegenden petrophysikalischen Modells, die wiederum von Unsicherheiten betroffen sein kann. Daher untersucht diese Arbeit die Möglichkeit, strukturelle und petrophysikalische Randbedingungen in der petrophysikalisch gekoppelten Inversion zu berücksichtigen, um konsistente Untergrundmodelle zu erhalten. Bei einem hohen Anteil von tonigen Sedimenten oder organischem Material ist es essentiell, dass das dem PJI-Verfahren zugrundeliegende petrophysikalische Modell den Einfluss der Oberflächenleitfähigkeit auf die beobachteten elektrischen Eigenschaften des Untergrunds berücksichtigt. Wird dieser Einfluss bei der PJI vernachlässigt, führt dies zu einer fehlerhaften quantitativen Bestimmung der hydrogeologischen Untergrundeigenschaften. Dementsprechend wird in dieser Arbeit das eingesetzte PJI-Verfahren erweitert, um den Einfluss der Oberflächenleitfähigkeit im Zuge der Inversion, d.h., bei der Parameterschätzung, zu berücksichtigen. Dieses modifizierte PJI-Verfahren quantifiziert die Oberflächenleitfähigkeit basierend auf ERT-Daten, die bei einer niedrigen und einer hohen Frequenz gemessen werden. Die im Rahmen dieser Arbeit erzielten Resultate lassen sich wie folgt zusammenfassen: (i) Entwicklung einer Softwarelösung für die Modellierung und Prozessierung von SRT-Daten basierend auf open-source python-Bibliotheken; (ii) die Verwendung eines Porositätsmodells als Randbedingung in der PJI kompensiert einen etwaigen geringen Kontrast in den physikalischen Eigenschaften verschiedener Untergrundmaterialien und kann darüber hinaus als zeitliche Randbedingung fungieren; (iii) der frequenzabhängige Effekt der Oberflächenleitfähigkeit kann im Zuge der PJI basierend auf Leitfähigkeitsmessungen bei einer hohen und einer niedrigen Frequenz berücksichtigt werden; (iv) das erweitertete PJI-Verfahren ermöglicht die quantitative Bestimmung hydrogeologischer Parameter (insbesondere Wassergehalt und hyrdaulische Leitfähigkeit) in unterschiedlichen Untersuchungsgebieten, z.B. gefrorener Untergrund in alpinen Regionen, Deponien, Hangrutschungen und ungestörte natürliche Sedimente; (v) das verwendete PJI-Verfahren kann sowohl hinsichtlich der zu invertierenden Datensätze als auch der Zielparameter individuell angepasst werden, wodurch zukünftige Erweiterungen basierend auf weiteren geophysikalischen Methoden und petrophysikalischen Beziehungen möglich sind.
Please Follow the Signs: Considering Existing Navigational Aids in Indoor Navigation Services
Department für Geodäsie und Geoinformation, Forschungsgruppe Kartographie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Mag. Dr. Georg Gartner
Kurzfassung/Abstract
Die Navigation in großen öffentlichen Gebäuden stellt für Menschen eine besondere Herausforderung dar. Aus diesem Grund wurden externe Darstellungen der Umgebung entwickelt, wie beispielsweise Navigationshilfen wie Schilder und Grundrisse sowie mobile Navigationsdienste. Diese wurden konzipiert, um die Orientierung in Gebäuden zu erleichtern und die Wahrnehmung zu entlasten. Derzeit arbeiten diese Systeme unabhängig voneinander. Untersuchungen deuten darauf hin, dass bestehende Navigationshilfen, die auf kodierten räumlichen Beziehungen basieren, als semantische Orientierungspunkte dienen können und das Erlernen von räumlichem Wissen erleichtern, während mobile Navigationsdienste das räumliche Lernen beeinträchtigen. Diese Dissertation befasst sich mit den Herausforderungen der Navigation in Innenräumen und des räumlichen Lernens, indem bestehende Navigationshilfen in Navigationsdienste integriert werden. Um das Navigationsverhalten von Menschen in Innenräumen und die Einflussfaktoren an Entscheidungspunkten besser zu verstehen, wurde ein exploratives Experiment mit menschlichen Teilnehmern durchgeführt. Die Ergebnisse dieses Experiments liefern einen systematischen Überblick über die Taktiken zur Entscheidungsfindung bei der innerräumlichen Navigation. Zudem tragen sie zur Weiterentwicklung der bestehenden Orientierungstheorie bei und bieten praktische Informationen für das Architekturdesign, das Gebäudemanagement und das Design von Navigationssystemen in Innenräumen. Basierend auf diesen Erkenntnissen wurde ein vollständig automatisiertes algorithmisches Framework namens ISIGNS (Indoor Sign InteGrated Navigation System) vorgeschlagen, um bestehende Navigationshilfen in Indoor-Navigationsdienste zu integrieren, wobei der Fokus auf Schildern und ihrer Semantik liegt. Die Implementierung von ISIGNS ist äußerst anwendbar, da sie lediglich einen Navigationsgraphen und einen Zeichendatensatz erfordert, der aus den meisten räumlichen Datenbanken für Innenräume abgeleitet werden kann. In einem In-situ-Experiment, bei dem ISIGNS mit menschlichen Teilnehmern evaluiert wurde, zeigte sich das Potenzial, das Navigationserlebnis zu bereichern und die Benutzerfreundlichkeit zu verbessern. Darüber hinaus konnte der vorgeschlagene Ansatz das räumliche Lernen der Teilnehmer signifikant verbessern, insbesondere hinsichtlich des Erwerbs von Wissen über Orientierungspunkte und des Überblicks über eine räumliche Umgebung. Durch die explizite Einbeziehung der Semantik von Schildern lenkt ISIGNS die Aufmerksamkeit auf die Umgebung und nutzt die semantische Natur von Schildern, was zu einer verbesserten räumlichen Wissensbildung führt. Insgesamt trägt diese Dissertation zu unserem Verständnis des menschlichen Orientierungsverhaltens bei der innerräumlichen Navigation bei. Sie untersucht die Faktoren, die die Entscheidungsfindung beeinflussen, und liefert wichtige Erkenntnisse über die Auswirkungen verschiedener Umweltinformationsquellen auf den Erwerb räumlichen Wissens. Der vorgeschlagene ISIGNS-Rahmen stellt eine äußerst wirksame Lösung dar, um bestehende Navigationshilfen in Indoor-Navigationsdienste zu integrieren. Dadurch wird nicht nur das Navigationserlebnis verbessert, sondern auch das räumliche Lernen gefördert.
Die Navigation in großen öffentlichen Gebäuden stellt für Menschen eine besondere Herausforderung dar. Aus diesem Grund wurden externe Darstellungen der Umgebung entwickelt, wie beispielsweise Navigationshilfen wie Schilder und Grundrisse sowie mobile Navigationsdienste. Diese wurden konzipiert, um die Orientierung in Gebäuden zu erleichtern und die Wahrnehmung zu entlasten. Derzeit arbeiten diese Systeme unabhängig voneinander. Untersuchungen deuten darauf hin, dass bestehende Navigationshilfen, die auf kodierten räumlichen Beziehungen basieren, als semantische Orientierungspunkte dienen können und das Erlernen von räumlichem Wissen erleichtern, während mobile Navigationsdienste das räumliche Lernen beeinträchtigen. Diese Dissertation befasst sich mit den Herausforderungen der Navigation in Innenräumen und des räumlichen Lernens, indem bestehende Navigationshilfen in Navigationsdienste integriert werden. Um das Navigationsverhalten von Menschen in Innenräumen und die Einflussfaktoren an Entscheidungspunkten besser zu verstehen, wurde ein exploratives Experiment mit menschlichen Teilnehmern durchgeführt. Die Ergebnisse dieses Experiments liefern einen systematischen Überblick über die Taktiken zur Entscheidungsfindung bei der innerräumlichen Navigation. Zudem tragen sie zur Weiterentwicklung der bestehenden Orientierungstheorie bei und bieten praktische Informationen für das Architekturdesign, das Gebäudemanagement und das Design von Navigationssystemen in Innenräumen. Basierend auf diesen Erkenntnissen wurde ein vollständig automatisiertes algorithmisches Framework namens ISIGNS (Indoor Sign InteGrated Navigation System) vorgeschlagen, um bestehende Navigationshilfen in Indoor-Navigationsdienste zu integrieren, wobei der Fokus auf Schildern und ihrer Semantik liegt. Die Implementierung von ISIGNS ist äußerst anwendbar, da sie lediglich einen Navigationsgraphen und einen Zeichendatensatz erfordert, der aus den meisten räumlichen Datenbanken für Innenräume abgeleitet werden kann. In einem In-situ-Experiment, bei dem ISIGNS mit menschlichen Teilnehmern evaluiert wurde, zeigte sich das Potenzial, das Navigationserlebnis zu bereichern und die Benutzerfreundlichkeit zu verbessern. Darüber hinaus konnte der vorgeschlagene Ansatz das räumliche Lernen der Teilnehmer signifikant verbessern, insbesondere hinsichtlich des Erwerbs von Wissen über Orientierungspunkte und des Überblicks über eine räumliche Umgebung. Durch die explizite Einbeziehung der Semantik von Schildern lenkt ISIGNS die Aufmerksamkeit auf die Umgebung und nutzt die semantische Natur von Schildern, was zu einer verbesserten räumlichen Wissensbildung führt. Insgesamt trägt diese Dissertation zu unserem Verständnis des menschlichen Orientierungsverhaltens bei der innerräumlichen Navigation bei. Sie untersucht die Faktoren, die die Entscheidungsfindung beeinflussen, und liefert wichtige Erkenntnisse über die Auswirkungen verschiedener Umweltinformationsquellen auf den Erwerb räumlichen Wissens. Der vorgeschlagene ISIGNS-Rahmen stellt eine äußerst wirksame Lösung dar, um bestehende Navigationshilfen in Indoor-Navigationsdienste zu integrieren. Dadurch wird nicht nur das Navigationserlebnis verbessert, sondern auch das räumliche Lernen gefördert.
Zuglokalisierung im alpinen Raum unter Anwendung des GALILEO High Accuracy Service
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2023
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber
Kurzfassung/Abstract
Im Sinne der Sicherheit, Planbarkeit und Kundenorientierung ist es für ein Eisenbahnunternehmen unerlässlich die Standorte seiner Triebfahrzeuge detailliert zu kennen und zu verfolgen. Die ÖBB Infrastruktur, als größtes Eisenbahninfrastrukturunternehmen Österreichs, setzen hierfür bereits heute, neben terrestrischen Methoden, auch GNSS-Verfahren ein. Im Rahmen des Projektes Greenlight wird die Zuglokalisierung durch das differenzielle Messverfahren RTK unterstützt. Nicht zuletzt deswegen ist die ÖBB Infrastruktur Teil und Mitgründer des größten privaten österreichischen RTK-Netzbetreibers EPOSA. RTK-Messungen liefern hochpräzise Echtzeit-Positionsdaten, haben jedoch den Nachteil, dass das Betreiben eines solchen Referenznetzes Computer-, Netzwerk- und GNSS-Hardwareressourcen voraussetzt. Darüber hinaus decken diese Netze zumeist nur das Gebiet innerhalb der Landesgrenzen ab. Mit der Methode der präzisen Einzelpunktbestimmung (PPP) können Referenznetze und deren Unannehmlichkeiten weitgehend außer Acht gelassen werden, sofern man gewisse Einschränkungen in der Positionierungsgenauigkeit und zeitlichen Verfügbarkeit hinnehmen kann. Für die Anwendbarkeit des PPP werden jedoch präzise Informationen über Satellitenuhren- und Bahnfehler, aber auch andere Abweichungen benötigt. Am 24. Jänner 2023 wurde Phase 1 des Galileo High Accuracy Services (HAS) gestartet. Dieser ist in der Lage die benötigten Korrekturen direkt über das Satellitensignal zu übermitteln, wobei für die generelle Durchführbarkeit mindestens einer und für die rasche Durchführbarkeit mindestens vier das HAS-Signal aussendende Galileo-Satelliten sichtbar sein müssen. Im Zuge dieser Arbeit werden mittels Multi-GNSS-1-Frequenzbeobachtungen (GPS und GLONASS) von auf Triebfahrzeugen fixierten u-blox Empfängern und Simulationen des GIPSIE Signalsimulators potenzielle Sichtbarkeiten von Galileo-Satelliten auf topographisch anspruchsvollen Strecken analysiert. Des Weiteren werden am Ende der Arbeit PPP-Lösungen basierend auf u-blox Beobachtungen hinsichtlich ihrer erzielten Genauigkeiten bzw. Abweichungen bei der Zuglokalisierung untersucht.
Im Sinne der Sicherheit, Planbarkeit und Kundenorientierung ist es für ein Eisenbahnunternehmen unerlässlich die Standorte seiner Triebfahrzeuge detailliert zu kennen und zu verfolgen. Die ÖBB Infrastruktur, als größtes Eisenbahninfrastrukturunternehmen Österreichs, setzen hierfür bereits heute, neben terrestrischen Methoden, auch GNSS-Verfahren ein. Im Rahmen des Projektes Greenlight wird die Zuglokalisierung durch das differenzielle Messverfahren RTK unterstützt. Nicht zuletzt deswegen ist die ÖBB Infrastruktur Teil und Mitgründer des größten privaten österreichischen RTK-Netzbetreibers EPOSA. RTK-Messungen liefern hochpräzise Echtzeit-Positionsdaten, haben jedoch den Nachteil, dass das Betreiben eines solchen Referenznetzes Computer-, Netzwerk- und GNSS-Hardwareressourcen voraussetzt. Darüber hinaus decken diese Netze zumeist nur das Gebiet innerhalb der Landesgrenzen ab. Mit der Methode der präzisen Einzelpunktbestimmung (PPP) können Referenznetze und deren Unannehmlichkeiten weitgehend außer Acht gelassen werden, sofern man gewisse Einschränkungen in der Positionierungsgenauigkeit und zeitlichen Verfügbarkeit hinnehmen kann. Für die Anwendbarkeit des PPP werden jedoch präzise Informationen über Satellitenuhren- und Bahnfehler, aber auch andere Abweichungen benötigt. Am 24. Jänner 2023 wurde Phase 1 des Galileo High Accuracy Services (HAS) gestartet. Dieser ist in der Lage die benötigten Korrekturen direkt über das Satellitensignal zu übermitteln, wobei für die generelle Durchführbarkeit mindestens einer und für die rasche Durchführbarkeit mindestens vier das HAS-Signal aussendende Galileo-Satelliten sichtbar sein müssen. Im Zuge dieser Arbeit werden mittels Multi-GNSS-1-Frequenzbeobachtungen (GPS und GLONASS) von auf Triebfahrzeugen fixierten u-blox Empfängern und Simulationen des GIPSIE Signalsimulators potenzielle Sichtbarkeiten von Galileo-Satelliten auf topographisch anspruchsvollen Strecken analysiert. Des Weiteren werden am Ende der Arbeit PPP-Lösungen basierend auf u-blox Beobachtungen hinsichtlich ihrer erzielten Genauigkeiten bzw. Abweichungen bei der Zuglokalisierung untersucht.
Signal- und Fehleranalyse von globalen Schwerefeldmodellen und Validierung mit GNSS/Nivellement für den Alpenraum
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2023
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Eine der Hauptaufgaben der physikalischen Geodäsie ist die Bestimmung des Schwerefelds der Erde. Mithilfe eines genauen Schwerefeldmodells können Prozesse im dynamischen System Erde besser erfasst werden. Daher haben diese Modelle eine Vielzahl von Anwendungen, etwa in der Geodäsie, Geophysik oder der Ozeanographie. In dieser Masterarbeit werden fünf aktuelle globale Schwerefeldmodelle vorgestellt und analysiert. Um eine Aussage über ihre Genauigkeit treffen zu können, werden modellierte Höhenanomalien mit unabhängigen GNSS/Nivellement Daten verglichen. Die Abweichungen zwischen Modell und Referenz werden unter Berücksichtigung ihrer Zusammensetzung von commission error und ommission error untersucht. Zunächst werden die Gradvarianzen der verschiedenen Modelle verglichen, um die Auswirkungen der unterschiedlichen Beobachtungstypen und Berechnungsmethoden auf das modellierte Schwerefeldsignal im Spektralraum zu untersuchen. Um ein möglichst vollständiges Signal im Spektralraum zu erhalten und die räumliche Auflösung der globalen Schwerefeldmodelle zu erhöhen, werden die abgeleiteten Größen um einen residualen, hochfrequenten Anteil erweitert. Diese Korrektur wird aus einem vorwärtsmodellierten Geländemodell (Residual Terrain Model, RTM) berechnet. Dabei kann gezeigt werden, dass der Restfehler mit diesem Ansatz reduziert werden kann. In einem weiteren Schritt werden die Residuen der berechneten Höhenanomalien zwischen den globalen Schwerefeldmodellen und den unabhängigen Referenzdaten in einer slope difference analysis untersucht, um eine Aussage über verbleibende systematische Fehler treffen zu können. Mit dieser Methode kann auch die Konsistenz der zur Verfügung gestellten Referenzdaten evaluiert werden. Weiters wird das globale Modell mit der geringsten Abweichung zu den Referenzdaten mit einem aktuellen regionalen Geoidmodell verglichen. Abschließend werden die Komponenten des verbleibenden Restfehlers diskutiert und die Einschränkungen der vorgestellten Methoden und Ansätze für weiterführende Untersuchungen aufgezeigt.
Eine der Hauptaufgaben der physikalischen Geodäsie ist die Bestimmung des Schwerefelds der Erde. Mithilfe eines genauen Schwerefeldmodells können Prozesse im dynamischen System Erde besser erfasst werden. Daher haben diese Modelle eine Vielzahl von Anwendungen, etwa in der Geodäsie, Geophysik oder der Ozeanographie. In dieser Masterarbeit werden fünf aktuelle globale Schwerefeldmodelle vorgestellt und analysiert. Um eine Aussage über ihre Genauigkeit treffen zu können, werden modellierte Höhenanomalien mit unabhängigen GNSS/Nivellement Daten verglichen. Die Abweichungen zwischen Modell und Referenz werden unter Berücksichtigung ihrer Zusammensetzung von commission error und ommission error untersucht. Zunächst werden die Gradvarianzen der verschiedenen Modelle verglichen, um die Auswirkungen der unterschiedlichen Beobachtungstypen und Berechnungsmethoden auf das modellierte Schwerefeldsignal im Spektralraum zu untersuchen. Um ein möglichst vollständiges Signal im Spektralraum zu erhalten und die räumliche Auflösung der globalen Schwerefeldmodelle zu erhöhen, werden die abgeleiteten Größen um einen residualen, hochfrequenten Anteil erweitert. Diese Korrektur wird aus einem vorwärtsmodellierten Geländemodell (Residual Terrain Model, RTM) berechnet. Dabei kann gezeigt werden, dass der Restfehler mit diesem Ansatz reduziert werden kann. In einem weiteren Schritt werden die Residuen der berechneten Höhenanomalien zwischen den globalen Schwerefeldmodellen und den unabhängigen Referenzdaten in einer slope difference analysis untersucht, um eine Aussage über verbleibende systematische Fehler treffen zu können. Mit dieser Methode kann auch die Konsistenz der zur Verfügung gestellten Referenzdaten evaluiert werden. Weiters wird das globale Modell mit der geringsten Abweichung zu den Referenzdaten mit einem aktuellen regionalen Geoidmodell verglichen. Abschließend werden die Komponenten des verbleibenden Restfehlers diskutiert und die Einschränkungen der vorgestellten Methoden und Ansätze für weiterführende Untersuchungen aufgezeigt.
Erkennung und Klassifizierung von Hindernissen aus Lidar-Daten zur Verbesserung der Routenführung und Vermeidung von Kollisionen im Fall autonomer Fahrzeuge
Institut für Geodäsie, Arbeitsgruppe Navigation, Technische Universität Graz, 2023
Betreuer: Ao.Univ.-Prof. Dipl.-Ing. Dr. Norbert Kühtreiber
Kurzfassung/Abstract
Diese Masterarbeit zielt darauf ab, ein Hinderniserkennungssystem (ORS) für einen selbstfahrenden Roboter zu entwickeln. Insbesondere ist die Arbeit im Zusammenhang mit dem Projekt ANDREA durchgeführt. In diesem Projekt ist die Technische Universität Graz (TU Graz) involviert und das Ziel dieses ist die Automatisierung der Kompostierung. Für dies wird ein Kompostier-Roboter verwendet. Neben der eigentlichen Aufgabe der Kompostierung und des Datensammelns, soll dieser Roboter in der Lage sein autonom auf dem Kompostplatz zu navigieren. Für diesen Zweck ist ein ausgeklügeltes ORS erforderlich. Insbesondere liegt dabei die Schwierigkeit in der Tatsache, dass die Komposthaufen nicht als Hindernis erkannt werden sollen, da der Roboter über diese hinwegfahren muss, um den Kompost zu wenden. Aus diesen Gründen ist das Ziel der Arbeit nicht nur auf das einfache Detektieren von Hindernissen beschränkt, sondern beinhaltet auch eine Klassifizierung dieser. Dies ermöglicht ein Ausschließen der Komposthaufen von den Hindernissen und wird zusätzlich das System auch insgesamt verbessern, da so sensible oder bewegte Hindernisse, wie Menschen, Tiere oder Autos konkret identifiziert werden können. Da der Roboter auch in der Nacht operieren soll, ist der geeignetste Sensor in dieser Hinsicht und unter Betrachtung der zur Verfügung stehenden Ressourcen im Projekt ANDREA ein LIDAR-Sensor. Das ORS ist daher so umgesetzt, dass es Punktwolken-Daten verarbeitet, welche direkt aus dem Laserscanner gewonnen werden. Der Kern des Systems besteht aus drei Vorgängen. Zunächst werden Punkte, die durch eine Reflexion vom Boden erhalten wurden, sogenannte Bodenpunkte, entfernt. Die verbleibende Punktwolke besteht nun nur aus Objekten und potenziellen Hindernissen. Im zweiten Schritt wird diese verbleibende Punktwolke in verschiedene Objekte gruppiert. Idealerweise wird jedes Objekt der realen Welt von einer solchen Punktwolken-Gruppe erfasst. Schließlich werden im letzten Schritt diese Punktwolken-Gruppen mithilfe eines neuronalen Netzwerks klassifiziert. Dies ermöglicht die Identifizierung bestimmter kritischer Objekte, wie zum Beispiel Menschen, und ermöglicht die Entfernung der Komposthaufen, die wie erwähnt nicht als Hindernis detektiert werden sollen. Die Resultate werden im letzten Kapitel ausführlich analysiert und diskutiert. Im Allgemeinen liefert das entwickelte System akzeptable Ergebnisse. Allerdings stellt die Entfernung der Komposthaufen aus der Gruppe der Hindernisse große Schwierigkeiten dar. Diese Anforderung erfordert eine äußerst präzise Klassifizierung, die nur schwer zu erreichen ist, insbesondere wenn die schier endlose Zahl an möglichen Hindernissen bedacht wird. In diesem Zusammenhang wird das ORS auch im größeren Kontext autonomer Fahrzeuge betrachtet, und wie man sehen wird, können die Anforderungen eines ORS sehr schnell denen einer sehr komplexen Problemstellung wie die eines selbstfahrender Autos entsprechen, bei der ein sehr präzises und umfassendes Verständnis der Umgebung erforderlich ist.
Diese Masterarbeit zielt darauf ab, ein Hinderniserkennungssystem (ORS) für einen selbstfahrenden Roboter zu entwickeln. Insbesondere ist die Arbeit im Zusammenhang mit dem Projekt ANDREA durchgeführt. In diesem Projekt ist die Technische Universität Graz (TU Graz) involviert und das Ziel dieses ist die Automatisierung der Kompostierung. Für dies wird ein Kompostier-Roboter verwendet. Neben der eigentlichen Aufgabe der Kompostierung und des Datensammelns, soll dieser Roboter in der Lage sein autonom auf dem Kompostplatz zu navigieren. Für diesen Zweck ist ein ausgeklügeltes ORS erforderlich. Insbesondere liegt dabei die Schwierigkeit in der Tatsache, dass die Komposthaufen nicht als Hindernis erkannt werden sollen, da der Roboter über diese hinwegfahren muss, um den Kompost zu wenden. Aus diesen Gründen ist das Ziel der Arbeit nicht nur auf das einfache Detektieren von Hindernissen beschränkt, sondern beinhaltet auch eine Klassifizierung dieser. Dies ermöglicht ein Ausschließen der Komposthaufen von den Hindernissen und wird zusätzlich das System auch insgesamt verbessern, da so sensible oder bewegte Hindernisse, wie Menschen, Tiere oder Autos konkret identifiziert werden können. Da der Roboter auch in der Nacht operieren soll, ist der geeignetste Sensor in dieser Hinsicht und unter Betrachtung der zur Verfügung stehenden Ressourcen im Projekt ANDREA ein LIDAR-Sensor. Das ORS ist daher so umgesetzt, dass es Punktwolken-Daten verarbeitet, welche direkt aus dem Laserscanner gewonnen werden. Der Kern des Systems besteht aus drei Vorgängen. Zunächst werden Punkte, die durch eine Reflexion vom Boden erhalten wurden, sogenannte Bodenpunkte, entfernt. Die verbleibende Punktwolke besteht nun nur aus Objekten und potenziellen Hindernissen. Im zweiten Schritt wird diese verbleibende Punktwolke in verschiedene Objekte gruppiert. Idealerweise wird jedes Objekt der realen Welt von einer solchen Punktwolken-Gruppe erfasst. Schließlich werden im letzten Schritt diese Punktwolken-Gruppen mithilfe eines neuronalen Netzwerks klassifiziert. Dies ermöglicht die Identifizierung bestimmter kritischer Objekte, wie zum Beispiel Menschen, und ermöglicht die Entfernung der Komposthaufen, die wie erwähnt nicht als Hindernis detektiert werden sollen. Die Resultate werden im letzten Kapitel ausführlich analysiert und diskutiert. Im Allgemeinen liefert das entwickelte System akzeptable Ergebnisse. Allerdings stellt die Entfernung der Komposthaufen aus der Gruppe der Hindernisse große Schwierigkeiten dar. Diese Anforderung erfordert eine äußerst präzise Klassifizierung, die nur schwer zu erreichen ist, insbesondere wenn die schier endlose Zahl an möglichen Hindernissen bedacht wird. In diesem Zusammenhang wird das ORS auch im größeren Kontext autonomer Fahrzeuge betrachtet, und wie man sehen wird, können die Anforderungen eines ORS sehr schnell denen einer sehr komplexen Problemstellung wie die eines selbstfahrender Autos entsprechen, bei der ein sehr präzises und umfassendes Verständnis der Umgebung erforderlich ist.
Automation of scan process for shape determination - using robot arm and triangulation scanner
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Finn Linzer MSc
Kurzfassung/Abstract
Die rasante Entwicklung von Laserscannern hat in den letzten Jahren neue Forschungsgebiete erschlossen. Laserscanning liefert durch berührungslose Abtastung von Oberflächen die Grundlage für die Rekonstruktion von Objekten deren Form nicht verfügbar, verloren oder verweigert ist. Auf Roboterarmen montierte Laserscanner ermöglichen die automatisierte Erfassung von Punktwolken für die anschließende Formbestimmung und Rekonstruktion von Objekten. In dieser Arbeit wird ein automatisierter Scanvorgang für die Erfassung dichter Punktwolken vorgestellt, welcher die Oberflächenrekonstruktion und Posenbestimmung von Objekten mit Hilfe eines Roboterarms und eines getrackten Triangulationsscanners ermöglicht. Mit dieser Arbeit werden zwei Ziele verfolgt. In erster Linie wurde eine Methode entwickelt, die Objekte automatisiert erkennt, Robotertrajektorien für eine dichte Punktwolkenerfassung erzeugt und deren Oberfläche rekonstruiert. Das Scansystem verfährt zunächst rasterförmig einen vordefinierten Bereich ab, um das Objekt im Sinne einer groben Punktwolke zu detektieren. Auf deren Basis wurden Robotertrajektorien generiert, welche die Abtastung auf optimaler Scandistanz gewährleisten, was zu einer dichten Punktwolke des Objekts führt. Das Verfahren wurde auf fünf Testobjekte angewandt, welche erfolgreich in Form eines 3D-Drucks rekonstruiert wurden. Der Vergleich von originalen und rekonstruierten Objekten zeigt durchschnittliche Abweichungen von weniger als 1 mm für das gewählte Setup. Es wird eine Schrumpfung des 3D-Drucks aufgrund der Abkühlung des Materials angenommen, was zu einer Verkleinerung des Objekts führt. Im Durchschnitt sind die 3D-gedruckten Objekte um bis zu 2 % kleiner als die Originalobjekte. Eine Größenabweichung wird aufgrund der Schrumpfung des 3D-Drucks angenommen. Das zweite Ziel dieser Arbeit war die automatisierte Posen-Bestimmung von Holzwerkstücken in einem übergeordneten Koordinatensystem auf Basis der entwickelten Methode. Die Definition eines lokalen Objektkoordinatensystems ermöglicht die Bestimmung der Transformationsparameter in Bezug auf dieses übergeordnete System. Die Roboterpfade wurden für Fräs- und Bohroperationen an die Lage des Werkstücks angepasst. Im Zuge einer Messkampagne erreichte die automatisierte Lagebestimmung des Objekts eine Genauigkeit unter 2 mm in Bezug auf das übergeordnete Koordinatensystem. In Hinblick auf die Durchführung von Fräs- und Bohroperationen wurde dies als ausreichend genau angesehen.
Die rasante Entwicklung von Laserscannern hat in den letzten Jahren neue Forschungsgebiete erschlossen. Laserscanning liefert durch berührungslose Abtastung von Oberflächen die Grundlage für die Rekonstruktion von Objekten deren Form nicht verfügbar, verloren oder verweigert ist. Auf Roboterarmen montierte Laserscanner ermöglichen die automatisierte Erfassung von Punktwolken für die anschließende Formbestimmung und Rekonstruktion von Objekten. In dieser Arbeit wird ein automatisierter Scanvorgang für die Erfassung dichter Punktwolken vorgestellt, welcher die Oberflächenrekonstruktion und Posenbestimmung von Objekten mit Hilfe eines Roboterarms und eines getrackten Triangulationsscanners ermöglicht. Mit dieser Arbeit werden zwei Ziele verfolgt. In erster Linie wurde eine Methode entwickelt, die Objekte automatisiert erkennt, Robotertrajektorien für eine dichte Punktwolkenerfassung erzeugt und deren Oberfläche rekonstruiert. Das Scansystem verfährt zunächst rasterförmig einen vordefinierten Bereich ab, um das Objekt im Sinne einer groben Punktwolke zu detektieren. Auf deren Basis wurden Robotertrajektorien generiert, welche die Abtastung auf optimaler Scandistanz gewährleisten, was zu einer dichten Punktwolke des Objekts führt. Das Verfahren wurde auf fünf Testobjekte angewandt, welche erfolgreich in Form eines 3D-Drucks rekonstruiert wurden. Der Vergleich von originalen und rekonstruierten Objekten zeigt durchschnittliche Abweichungen von weniger als 1 mm für das gewählte Setup. Es wird eine Schrumpfung des 3D-Drucks aufgrund der Abkühlung des Materials angenommen, was zu einer Verkleinerung des Objekts führt. Im Durchschnitt sind die 3D-gedruckten Objekte um bis zu 2 % kleiner als die Originalobjekte. Eine Größenabweichung wird aufgrund der Schrumpfung des 3D-Drucks angenommen. Das zweite Ziel dieser Arbeit war die automatisierte Posen-Bestimmung von Holzwerkstücken in einem übergeordneten Koordinatensystem auf Basis der entwickelten Methode. Die Definition eines lokalen Objektkoordinatensystems ermöglicht die Bestimmung der Transformationsparameter in Bezug auf dieses übergeordnete System. Die Roboterpfade wurden für Fräs- und Bohroperationen an die Lage des Werkstücks angepasst. Im Zuge einer Messkampagne erreichte die automatisierte Lagebestimmung des Objekts eine Genauigkeit unter 2 mm in Bezug auf das übergeordnete Koordinatensystem. In Hinblick auf die Durchführung von Fräs- und Bohroperationen wurde dies als ausreichend genau angesehen.
Vergleich von GNSS-RTK Positionierungen auf Basis verschiedener RTCM 3.x Korrekturdatenströme
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2023
Betreuer: Ao.Univ.Prof. Dipl.-Ing. Dr. Robert Weber, Dipl.-Ing. Klaus Gutlederer
Kurzfassung/Abstract
Unter Verwendung von RTK-Echtzeitkinematik-GNSS-Methoden kann eine hohe Genauigkeit in Lage und Höhe erreicht werden. Das Ziel dieser Masterarbeit war die Bewertung von GNSS-RTK-Positionierungsdiensten basierend auf RTCM 3.x-Korrekturströmen. Die Messungen wurden mit dem EPOSA GNSS Service durchgeführt, das verschiedene landesweite Datenkorrektur-Streams anbietet. Die Messungen wurden in verschiedenen Koordinatenreferenzsystemen wie dem International Terrestrial Reference Frame (ITRF), dem European Terrestrial Reference Frame (ETRF) und dem Militär-Geographischen Institut (MGI), dem nationalen Koordinatenreferenzsystem Österreichs, durchgeführt. EPOSA bietet zwei Arten von RTCM 3.1-Korrekturströmen; ein Strom unterstützt einzelne meridionale Zonen, die andere versorgt das gesamte österreichische Staatsgebiet. Auf der anderen Seite nutzt die Österreichische Bundesbahn als Partner von EPOSA einen anderen Korrekturstrom, der am besten an den Bereich in Gleisnähe angepasst ist. Die Messungen wurden in Wien auf dem Dach des TU Wien Campus und in der Nähe von Bahngleisen durchgeführt. Die Ergebnisse zeigten, dass durch den Einsatz von RTK-Echtzeitkinematikverfahren je nach Anwendung hochgenaue Positionen erreicht werden können. Um die über Jahre durch Eisenbahnvermessungen gewonnenen Koordinaten wiederherzustellen, muss der kürzlich erstellte Infra-Grid-Korrekturstrom angewendet werden. Zur Wiederherstellung der vom BEV herausgegebenen Landeskoordinaten sollten die regulären Eposa Grid Services verwendet werden. Andererseits haben die Messungen mit Eposa ETRF89-Diensten und Eposa ITRF 2014-Diensten gezeigt, dass sowohl in der Horizontalen als auch in der Höhe einige cm-Genauigkeit erreicht werden kann. Wie angenommen zeigte sich ein Unterschied von etwa 40 cm zwischen den Koordinatenlösungen von ITRF2014 und ETRF89 aufgrund der Plattenbewegung und des Unterschieds in den Referenzepochen.
Unter Verwendung von RTK-Echtzeitkinematik-GNSS-Methoden kann eine hohe Genauigkeit in Lage und Höhe erreicht werden. Das Ziel dieser Masterarbeit war die Bewertung von GNSS-RTK-Positionierungsdiensten basierend auf RTCM 3.x-Korrekturströmen. Die Messungen wurden mit dem EPOSA GNSS Service durchgeführt, das verschiedene landesweite Datenkorrektur-Streams anbietet. Die Messungen wurden in verschiedenen Koordinatenreferenzsystemen wie dem International Terrestrial Reference Frame (ITRF), dem European Terrestrial Reference Frame (ETRF) und dem Militär-Geographischen Institut (MGI), dem nationalen Koordinatenreferenzsystem Österreichs, durchgeführt. EPOSA bietet zwei Arten von RTCM 3.1-Korrekturströmen; ein Strom unterstützt einzelne meridionale Zonen, die andere versorgt das gesamte österreichische Staatsgebiet. Auf der anderen Seite nutzt die Österreichische Bundesbahn als Partner von EPOSA einen anderen Korrekturstrom, der am besten an den Bereich in Gleisnähe angepasst ist. Die Messungen wurden in Wien auf dem Dach des TU Wien Campus und in der Nähe von Bahngleisen durchgeführt. Die Ergebnisse zeigten, dass durch den Einsatz von RTK-Echtzeitkinematikverfahren je nach Anwendung hochgenaue Positionen erreicht werden können. Um die über Jahre durch Eisenbahnvermessungen gewonnenen Koordinaten wiederherzustellen, muss der kürzlich erstellte Infra-Grid-Korrekturstrom angewendet werden. Zur Wiederherstellung der vom BEV herausgegebenen Landeskoordinaten sollten die regulären Eposa Grid Services verwendet werden. Andererseits haben die Messungen mit Eposa ETRF89-Diensten und Eposa ITRF 2014-Diensten gezeigt, dass sowohl in der Horizontalen als auch in der Höhe einige cm-Genauigkeit erreicht werden kann. Wie angenommen zeigte sich ein Unterschied von etwa 40 cm zwischen den Koordinatenlösungen von ITRF2014 und ETRF89 aufgrund der Plattenbewegung und des Unterschieds in den Referenzepochen.
Auswertung von X-Band-Doppler-Wetterradardaten basierend auf stationsbasierten Niederschlagsmessungen im Zentralraum der Steiermark
Institut für Geographie und Raumforschung, Technische Universität Graz, 2023
Betreuer: Univ.-Prof. Dr. Wolfgang Schöner
Kurzfassung/Abstract
Das dual-polarimetrische X-Band-Doppler-Wetterradar WR2100 von Furuno sammelt seit Sommer 2019 hochauflösende Daten in der Zentralregion der Steiermark. Das Wetterradar ist im Zentrum von Graz installiert und misst verschiedene Parameter (z.B. Reflektivität sowie verschiedene dual-polarimetrische Größen) in einem Gebiet von 30 km. Um die Radardaten als Niederschlagsmessungen zu verwenden, wird die Niederschlagsmenge (R [mm/h]) anhand der Reflektivität (Z [mm^6/m^3]) auf der Grundlage der empirischen Beziehung Z=aR^b geschätzt. Allerdings unterliegen Wetterradarmessungen dem Einfluss von Strahlblockaden, Clutter und Dämpfung des Radarstrahls. Diese beeinträchtigen die Qualität der Reflektivitätsmessungen. Insbesondere bei X-Band-Radaren mit kurzwelligen Signalen ist die Dämpfung eine starke Unsicherheitsquelle. Im Rahmen dieser Masterarbeit wurde eine Prozessierungskette für die Furuno WR2100-Daten implementiert. Die Prozessierung der Daten dient dazu, Clutter zu entfernen und die Dämpfung zu korrigieren, um Fehler bei der Niederschlagsschätzung zu reduzieren. Die Implementierung der Datenverarbeitung basiert hauptsächlich auf Funktionen, die von den offenen Python-Bibliotheken wradlib und WRaINfo bereitgestellt werden. Clutter wird mit Hilfe einer Fuzzy-Echoklassifizierung identifiziert. Für die Dämpfungskorrektur wurde die Methode, die auch in der proprietären Furuno WR2100-Software verwendet wird, neu implementiert und mit der komplexeren ZPHI-Methode verglichen. Die quantitativen Niederschlagsdaten wurden dann mit sechs verschiedenen Z-R-Relationen berechnet und mit stationsbasierten Messungen verglichen. Die Analyse umfasst dabei sowohl konvektive als auch stratiforme Niederschlagsereignisse. Die Ergebnisse zeigen, dass eine systematische Überschätzung der Radardaten im Vergleich zu den Messungen am Boden vorliegt. Die Analyse der beiden Dämpfungskorrektur-Methoden ergab, dass die ZPHI-Methode leicht besser abschnitt. Für gute Ergebnisse der Dämpfungskorrektur ist eine hohe Genauigkeit der phidp Messungen erforderlich, da beide Methoden davon abhängen. Es wurde ein signifikanter Unterschied zwischen den Ergebnissen der verschiedenen Z-R-Beziehungen festgestellt.
Das dual-polarimetrische X-Band-Doppler-Wetterradar WR2100 von Furuno sammelt seit Sommer 2019 hochauflösende Daten in der Zentralregion der Steiermark. Das Wetterradar ist im Zentrum von Graz installiert und misst verschiedene Parameter (z.B. Reflektivität sowie verschiedene dual-polarimetrische Größen) in einem Gebiet von 30 km. Um die Radardaten als Niederschlagsmessungen zu verwenden, wird die Niederschlagsmenge (R [mm/h]) anhand der Reflektivität (Z [mm^6/m^3]) auf der Grundlage der empirischen Beziehung Z=aR^b geschätzt. Allerdings unterliegen Wetterradarmessungen dem Einfluss von Strahlblockaden, Clutter und Dämpfung des Radarstrahls. Diese beeinträchtigen die Qualität der Reflektivitätsmessungen. Insbesondere bei X-Band-Radaren mit kurzwelligen Signalen ist die Dämpfung eine starke Unsicherheitsquelle. Im Rahmen dieser Masterarbeit wurde eine Prozessierungskette für die Furuno WR2100-Daten implementiert. Die Prozessierung der Daten dient dazu, Clutter zu entfernen und die Dämpfung zu korrigieren, um Fehler bei der Niederschlagsschätzung zu reduzieren. Die Implementierung der Datenverarbeitung basiert hauptsächlich auf Funktionen, die von den offenen Python-Bibliotheken wradlib und WRaINfo bereitgestellt werden. Clutter wird mit Hilfe einer Fuzzy-Echoklassifizierung identifiziert. Für die Dämpfungskorrektur wurde die Methode, die auch in der proprietären Furuno WR2100-Software verwendet wird, neu implementiert und mit der komplexeren ZPHI-Methode verglichen. Die quantitativen Niederschlagsdaten wurden dann mit sechs verschiedenen Z-R-Relationen berechnet und mit stationsbasierten Messungen verglichen. Die Analyse umfasst dabei sowohl konvektive als auch stratiforme Niederschlagsereignisse. Die Ergebnisse zeigen, dass eine systematische Überschätzung der Radardaten im Vergleich zu den Messungen am Boden vorliegt. Die Analyse der beiden Dämpfungskorrektur-Methoden ergab, dass die ZPHI-Methode leicht besser abschnitt. Für gute Ergebnisse der Dämpfungskorrektur ist eine hohe Genauigkeit der phidp Messungen erforderlich, da beide Methoden davon abhängen. Es wurde ein signifikanter Unterschied zwischen den Ergebnissen der verschiedenen Z-R-Beziehungen festgestellt.
Automatische verteilte faseroptische Messung mit dem hochauflösenden Luna OBR 4600 mittels individueller Software
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2023
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
In der heutigen Zeit werden immer mehr Strukturen, wie z.B. Brücken oder Gebäude, kontinuierlich überwacht, um frühzeitig mögliche Schäden oder Schwachstellen zu erkennen und gezielt gegensteuern zu können. Das sogenannte Structural Health Monitoring dient dazu, die Integrität von Strukturen kontinuierlich zu überwachen und somit frühzeitig mögliche Schäden oder Schwachstellen zu erkennen. Zur Überwachung von Strukturen werden unterschiedliche Technologien eingesetzt, eine davon ist das Optical Backscatter Reflectometer OBR 4600. Das Optical Backscatter Reflectometer 4600 ist ein Messgerät, das in der Strukturüberwachung eingesetzt wird. Mit Hilfe von optischen Fasern können damit Materialien wie Metalle, Kunststoffe oder auch Glas auf Risse, Brüche und andere Schäden untersucht werden. Das Messprinzip beruht auf der Analyse des durch die optischen Fasern zurückgestreuten Lichts. Das OBR 4600 erzeugt hierbei ein zeitlich aufgelöstes Reflexionsprofil der Faser. Auf diese Weise können Defekte im Material erkannt und genau lokalisiert werden. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines eigenen Programms für die Steuerung des Optical Backscatter Reflectometers 4600. Das Programm verfügt über eine benutzerfreundliche graphische Oberfläche und ermöglicht die einfache Datenerfassung. Besonderes Augenmerk wurde darauf gelegt, dass das Programm auch in der Lage ist, Fehler während der Datenerfassung automatisch zu behandeln. Nach der erfolgreichen Entwicklung wurde das Programm in Rahmen eines Projektes praktisch getestet.
In der heutigen Zeit werden immer mehr Strukturen, wie z.B. Brücken oder Gebäude, kontinuierlich überwacht, um frühzeitig mögliche Schäden oder Schwachstellen zu erkennen und gezielt gegensteuern zu können. Das sogenannte Structural Health Monitoring dient dazu, die Integrität von Strukturen kontinuierlich zu überwachen und somit frühzeitig mögliche Schäden oder Schwachstellen zu erkennen. Zur Überwachung von Strukturen werden unterschiedliche Technologien eingesetzt, eine davon ist das Optical Backscatter Reflectometer OBR 4600. Das Optical Backscatter Reflectometer 4600 ist ein Messgerät, das in der Strukturüberwachung eingesetzt wird. Mit Hilfe von optischen Fasern können damit Materialien wie Metalle, Kunststoffe oder auch Glas auf Risse, Brüche und andere Schäden untersucht werden. Das Messprinzip beruht auf der Analyse des durch die optischen Fasern zurückgestreuten Lichts. Das OBR 4600 erzeugt hierbei ein zeitlich aufgelöstes Reflexionsprofil der Faser. Auf diese Weise können Defekte im Material erkannt und genau lokalisiert werden. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines eigenen Programms für die Steuerung des Optical Backscatter Reflectometers 4600. Das Programm verfügt über eine benutzerfreundliche graphische Oberfläche und ermöglicht die einfache Datenerfassung. Besonderes Augenmerk wurde darauf gelegt, dass das Programm auch in der Lage ist, Fehler während der Datenerfassung automatisch zu behandeln. Nach der erfolgreichen Entwicklung wurde das Programm in Rahmen eines Projektes praktisch getestet.
Kataster – Vergleich des Österreichischen und Slowenischen Systems
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2023
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Die Landadministration von Slowenien und Österreich hat sich nach Ende des Ersten Weltkrieges und der darauffolgenden Auflösung der Habsburgermonarchie unterschiedlich entwickelt. Bis 1918 waren beide Länder Teil des Kaiserreiches. Ausgangspunkt der Landadministration beider Länder ist der Franziszeische Kataster. Durch die ständigen Weiterentwicklungen und Erweiterungen hat der heutige Kataster natürlich mehr Aufgaben zu erfüllen als am Anfang. Gleich ist, dass für die Grundstücksschaffung in beiden Ländern das Grundbuch und der Kataster benötigt werden. In Slowenien kommt noch der Gebäudekataster hinzu. Das Ziel dieser Arbeit ist es die unterschiedlichen Entwicklungen und Gemeinsamkeiten zwischen dem österreichischen und dem slowenischen Kataster darzustellen und zu vergleichen. Es wird einen kleinen Überblick über die Entwicklung des Katasters, Kataster heute, des Grundbuches und Verwaltung in Österreich und in Slowenien geben. Zusammenfassend werden die Unterschiede und Gemeinsamkeiten durch folgende Punkte analysiert: Landadministration, Organisation (Behörde), Digitalisierung, Satellitenpositionierungssysteme.
Die Landadministration von Slowenien und Österreich hat sich nach Ende des Ersten Weltkrieges und der darauffolgenden Auflösung der Habsburgermonarchie unterschiedlich entwickelt. Bis 1918 waren beide Länder Teil des Kaiserreiches. Ausgangspunkt der Landadministration beider Länder ist der Franziszeische Kataster. Durch die ständigen Weiterentwicklungen und Erweiterungen hat der heutige Kataster natürlich mehr Aufgaben zu erfüllen als am Anfang. Gleich ist, dass für die Grundstücksschaffung in beiden Ländern das Grundbuch und der Kataster benötigt werden. In Slowenien kommt noch der Gebäudekataster hinzu. Das Ziel dieser Arbeit ist es die unterschiedlichen Entwicklungen und Gemeinsamkeiten zwischen dem österreichischen und dem slowenischen Kataster darzustellen und zu vergleichen. Es wird einen kleinen Überblick über die Entwicklung des Katasters, Kataster heute, des Grundbuches und Verwaltung in Österreich und in Slowenien geben. Zusammenfassend werden die Unterschiede und Gemeinsamkeiten durch folgende Punkte analysiert: Landadministration, Organisation (Behörde), Digitalisierung, Satellitenpositionierungssysteme.
Graphdatenbanken zur Netzwerkberechnung von EVU
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2023
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Das Ziel der vorliegenden Arbeit ist es, zu beantworten, welche Möglichkeiten Graphdatenbanken zur Netzwerkberechnung von Energieversorgungsunternehmen bieten und welche Schritte für eine Überführung der Daten aus einer relationalen Datenbank in eine Graphdatenbank notwendig sind. Zur Beantwortung der Forschungsfrage wurde ein qualitativer Vergleich zu den Datenbanksystemen erstens relationale Datenbanken und zweitens Graphdatenbanken durchgeführt, welcher dann bezogen auf den Anwendungsfall von Energieversorgungsunternehmen beurteilt wurde. Es wurde ein Datenmodell für die Überführung der Daten, welche in der Größe ausgewählter Ortsnetze vorliegen, aus einer relationalen Datenbank in die Graphdatenbank Neo4j erstellt. Voraussetzung dafür war eine saubere Topologie im relationalen Datenbanksystem. Der qualitative Vergleich zeigte, dass beide Systeme Vor- und Nachteile haben, welche stark vom Anwendungsfall abhängen. Jedenfalls eignen sich Graphdatenbanken für Abfragen zu Netzwerkberechnungen, was die Einfachheit der Abfragen im Implementierungsteil der Arbeit belegt.
Das Ziel der vorliegenden Arbeit ist es, zu beantworten, welche Möglichkeiten Graphdatenbanken zur Netzwerkberechnung von Energieversorgungsunternehmen bieten und welche Schritte für eine Überführung der Daten aus einer relationalen Datenbank in eine Graphdatenbank notwendig sind. Zur Beantwortung der Forschungsfrage wurde ein qualitativer Vergleich zu den Datenbanksystemen erstens relationale Datenbanken und zweitens Graphdatenbanken durchgeführt, welcher dann bezogen auf den Anwendungsfall von Energieversorgungsunternehmen beurteilt wurde. Es wurde ein Datenmodell für die Überführung der Daten, welche in der Größe ausgewählter Ortsnetze vorliegen, aus einer relationalen Datenbank in die Graphdatenbank Neo4j erstellt. Voraussetzung dafür war eine saubere Topologie im relationalen Datenbanksystem. Der qualitative Vergleich zeigte, dass beide Systeme Vor- und Nachteile haben, welche stark vom Anwendungsfall abhängen. Jedenfalls eignen sich Graphdatenbanken für Abfragen zu Netzwerkberechnungen, was die Einfachheit der Abfragen im Implementierungsteil der Arbeit belegt.
Trennbarkeitsanalyse und Klassifikation von Baumarten mit Sentinel-2 Zeitreihendaten
Institut für Geodäsie, Arbeitsgruppe Fernerkundung und Photogrammetrie, Technische Universität Graz, 2023
Betreuer: Univ.-Prof.i.R. Dipl.-Forstwirt Dr. Mathias Schardt
Kurzfassung/Abstract
Forstwirtschaftliche Entscheidungen sind abhängig von detaillierten und aktuellen Informationen über Waldbedeckung und vorhandene Ressourcen. Die Sentinel-2 Mission ermöglicht eine großräumige und dennoch kosteneffiziente Anwendung der Fernerkundung auf diesem Gebiet. Die hohe Wiederholrate unterstützt die Zeitreihenanalyse, die dazu beiträgt, die Trennbarkeit von Baumarten zu verbessern. In Kombination mit nichtparametrischen Machine-Learning-Algorithmen, die vieldimensionale multitemporale Daten verarbeiten können, sind verbesserte Klassifizierungsgenauigkeiten von ehemals schwer trennbaren Landbedeckungen möglich. Ziel dieser Masterarbeit ist die Trennbarkeit von Baumarten mit Sentinel-2 Zeitreihendaten zu untersuchen und eine Klassifizierung mit dem Random Forest Algorithmus durchzuführen. Um die Trennbarkeitsanalyse an die Funktionsweise des gewählten Klassifikators anzupassen, wurde ein selten verwendetes Trennbarkeitsmaß, basierend auf dem Isolation Forest Algorithmus, eingesetzt. Für eine optimale Auswahl an Features zu Klassifizierung, wurde ein iteratives Verfahren auf der Grundlage von Random Forest Importance Maßen und dem Pearson-Korrelationskoeffizienten angewendet. Mit der Kombination von verschiedenen Auswahlen an Features und Parametern des Klassifizierungsalgorithmus wurden sechs Klassifikationen erstellt. Die Qualität der Resultate wurde mit einer flächenbasierten Validierung mit unabhängig erstellten Validierungsdaten beurteilt. Die Ergebnisse dieser Arbeit sprechen für den Einsatz von Zeitreihendaten. Allerdings zeigt sich, dass eine optimale Auswahl gegenüber der Verwendung aller verfügbaren Features vorzuziehen ist. Trennbarkeitsanalyse und Validierung zeigen außerdem, dass Daten aus heterogenen und ungleichmäßig dichten Wäldern mit verschiedenen Baumarten in unterschiedlichen Entwicklungsstadien selbst für überlegene Klassifikatoren eine Herausforderung darstellen.
Forstwirtschaftliche Entscheidungen sind abhängig von detaillierten und aktuellen Informationen über Waldbedeckung und vorhandene Ressourcen. Die Sentinel-2 Mission ermöglicht eine großräumige und dennoch kosteneffiziente Anwendung der Fernerkundung auf diesem Gebiet. Die hohe Wiederholrate unterstützt die Zeitreihenanalyse, die dazu beiträgt, die Trennbarkeit von Baumarten zu verbessern. In Kombination mit nichtparametrischen Machine-Learning-Algorithmen, die vieldimensionale multitemporale Daten verarbeiten können, sind verbesserte Klassifizierungsgenauigkeiten von ehemals schwer trennbaren Landbedeckungen möglich. Ziel dieser Masterarbeit ist die Trennbarkeit von Baumarten mit Sentinel-2 Zeitreihendaten zu untersuchen und eine Klassifizierung mit dem Random Forest Algorithmus durchzuführen. Um die Trennbarkeitsanalyse an die Funktionsweise des gewählten Klassifikators anzupassen, wurde ein selten verwendetes Trennbarkeitsmaß, basierend auf dem Isolation Forest Algorithmus, eingesetzt. Für eine optimale Auswahl an Features zu Klassifizierung, wurde ein iteratives Verfahren auf der Grundlage von Random Forest Importance Maßen und dem Pearson-Korrelationskoeffizienten angewendet. Mit der Kombination von verschiedenen Auswahlen an Features und Parametern des Klassifizierungsalgorithmus wurden sechs Klassifikationen erstellt. Die Qualität der Resultate wurde mit einer flächenbasierten Validierung mit unabhängig erstellten Validierungsdaten beurteilt. Die Ergebnisse dieser Arbeit sprechen für den Einsatz von Zeitreihendaten. Allerdings zeigt sich, dass eine optimale Auswahl gegenüber der Verwendung aller verfügbaren Features vorzuziehen ist. Trennbarkeitsanalyse und Validierung zeigen außerdem, dass Daten aus heterogenen und ungleichmäßig dichten Wäldern mit verschiedenen Baumarten in unterschiedlichen Entwicklungsstadien selbst für überlegene Klassifikatoren eine Herausforderung darstellen.
Beitrag von Gravity Forward Modeling Methoden in regionaler Geoidbestimmung
Institut für Geodäsie, Arbeitsgruppe Theoretische Geodäsie und Satellitengeodäsie, Technische Universität Graz, 2023
Betreuer: Univ.-Prof. Dr.-Ing. Torsten Mayer-Gürr
Kurzfassung/Abstract
Diese Arbeit behandelt die Berechnung eines regional begrenzten Erdschweremodells für Mitteleuropa. Die Studie basiert auf einem vorhandenen Modell des sogenannten DACH-Geoids und untersucht insbesondere die Schwereberechnung aus einem topographischen Modell. Mit den eingesetzten Methoden des Gravity Forward Modelings (GFM) werden hochfrequente Gravitationssignal-Komponenten erfasst und analysiert. Die Ergebnisse heben den Einfluss verschiedener räumlicher Ausdehnungen und Zellengrößen des verwendeten Digitalen Höhenmodells (DEM) auf das berechnete Geoid hervor und zeigen dabei die positiven Auswirkungen zur Verminderung unerwünschter Randeffekte auf. Die Weiterentwicklung der Geoidlösung, unter Berücksichtigung der technologischen Herausforderungen, wird betont.
Diese Arbeit behandelt die Berechnung eines regional begrenzten Erdschweremodells für Mitteleuropa. Die Studie basiert auf einem vorhandenen Modell des sogenannten DACH-Geoids und untersucht insbesondere die Schwereberechnung aus einem topographischen Modell. Mit den eingesetzten Methoden des Gravity Forward Modelings (GFM) werden hochfrequente Gravitationssignal-Komponenten erfasst und analysiert. Die Ergebnisse heben den Einfluss verschiedener räumlicher Ausdehnungen und Zellengrößen des verwendeten Digitalen Höhenmodells (DEM) auf das berechnete Geoid hervor und zeigen dabei die positiven Auswirkungen zur Verminderung unerwünschter Randeffekte auf. Die Weiterentwicklung der Geoidlösung, unter Berücksichtigung der technologischen Herausforderungen, wird betont.
Unsicherheitsanalyse der TLS-Distanzabweichungen verursacht durch Material und Auftreffwinkel
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Univ.Ass. Finn Linzer MSc
Kurzfassung/Abstract
Terrestrische Laserscanner (TLS) finden immer häufiger Anwendung im Bereich der Ingenieurgeodäsie. Die mit modernen TLS erreichbare 3D-Punktgenauigkeit liegt im niedrigen Millimeterbereich. Zudem geben Hersteller Präzisionen für die Distanzmessung an, die bis in den Submillimeterbereich reichen. Dies treibt dazu an, vermutete systematische Effekte zu untersuchen, welche die Unsicherheit von TLS-Entfernungsmessungen beeinflussen könnten. Die Markteinführung von geodätischen Multistationen - Kombinationsinstrumente aus Totalstation (TS) und TLS - ermöglicht einen neuen Ansatz zur Genauigkeitsüberprüfung von TLS-Distanzmessungen, insbesondere in Bezug auf das zu scannende Material und den Einfallswinkel zwischen Laserstrahl und Objekt. Eine solche, als ROSIAM bezeichnete, Methode zur Durchführung und Auswertung von TLS-Distanzmessungen wurde vom Forschungsbereich für Ingenieurgeodäsie der TU Wien entwickelt. Das Grundprinzip ist der direkte Vergleich von TLS-Distanzen und Referenzdistanzen, welche mit einem Instrument höherer Genauigkeit ermittelt wurden. Ziel dieser Arbeit ist es, die Unsicherheitsquellen der ROSIAM-Methode zu bestimmen und zu quantifizieren sowie ein umfassendes Unsicherheitsbudget für die abgeleiteten Differenzen von TLS-Distanzen und Referenzdistanzen zu erstellen. Die Varianz-Kovarianz-Fortpflanzung und die Monte-Carlo-Simulation werden als Berechnungsmethoden eingesetzt, um die gemeinsame Auswirkung aller Unsicherheitseinflüsse auf die Distanzdifferenzen zu bestimmen. Ein wesentlicher Schritt dazu ist die Entwicklung eines Modells zur Netztransformation, welches einen funktionalen räumlichen Zusammenhang zwischen den Messgrößen des terrestrischen Laserscanners und jenen des Referenzinstruments herstellt. Die Instrumente können dabei beliebig zueinander positioniert und orientiert sein. In dieser Arbeit werden die Unsicherheiten von Distanzdifferenzen für Einfallswinkel von 0 bis 60 gon und für sieben verschiedene Materialien bestimmt. Zwischen allen Materialien wurden signifikante Unterschiede bei den Distanzdifferenzen für jeweils einen Großteil der untersuchten Einfallswinkel festgestellt. Dies lässt den Schluss zu, dass den vorliegenden Distanzdifferenzen systematische Effekte zugrunde liegen. Es wurde auch festgestellt, dass keine signifikanten Unterschiede in den Unsicherheiten der Distanzdifferenzen bezüglich Material und Einfallswinkel vorliegen. Daher kann ein einheitlicher Wert von 0.2mm als Standardunsicherheit für die Distanzdifferenzen verwendet werden. Die Anwendung dieser Standardunsicherheit ist jedoch auf die ROSIAM-Methode, die untersuchten Materialien und den Bereich der untersuchten Einfallswinkel zu beschränken. Die Ergebnisse zeigen insgesamt, dass die ROSIAM-Methode geeignet ist, um vermutete systematische Effekte bei TLS-Distanzmessungen von Multistationen zu untersuchen.
Terrestrische Laserscanner (TLS) finden immer häufiger Anwendung im Bereich der Ingenieurgeodäsie. Die mit modernen TLS erreichbare 3D-Punktgenauigkeit liegt im niedrigen Millimeterbereich. Zudem geben Hersteller Präzisionen für die Distanzmessung an, die bis in den Submillimeterbereich reichen. Dies treibt dazu an, vermutete systematische Effekte zu untersuchen, welche die Unsicherheit von TLS-Entfernungsmessungen beeinflussen könnten. Die Markteinführung von geodätischen Multistationen - Kombinationsinstrumente aus Totalstation (TS) und TLS - ermöglicht einen neuen Ansatz zur Genauigkeitsüberprüfung von TLS-Distanzmessungen, insbesondere in Bezug auf das zu scannende Material und den Einfallswinkel zwischen Laserstrahl und Objekt. Eine solche, als ROSIAM bezeichnete, Methode zur Durchführung und Auswertung von TLS-Distanzmessungen wurde vom Forschungsbereich für Ingenieurgeodäsie der TU Wien entwickelt. Das Grundprinzip ist der direkte Vergleich von TLS-Distanzen und Referenzdistanzen, welche mit einem Instrument höherer Genauigkeit ermittelt wurden. Ziel dieser Arbeit ist es, die Unsicherheitsquellen der ROSIAM-Methode zu bestimmen und zu quantifizieren sowie ein umfassendes Unsicherheitsbudget für die abgeleiteten Differenzen von TLS-Distanzen und Referenzdistanzen zu erstellen. Die Varianz-Kovarianz-Fortpflanzung und die Monte-Carlo-Simulation werden als Berechnungsmethoden eingesetzt, um die gemeinsame Auswirkung aller Unsicherheitseinflüsse auf die Distanzdifferenzen zu bestimmen. Ein wesentlicher Schritt dazu ist die Entwicklung eines Modells zur Netztransformation, welches einen funktionalen räumlichen Zusammenhang zwischen den Messgrößen des terrestrischen Laserscanners und jenen des Referenzinstruments herstellt. Die Instrumente können dabei beliebig zueinander positioniert und orientiert sein. In dieser Arbeit werden die Unsicherheiten von Distanzdifferenzen für Einfallswinkel von 0 bis 60 gon und für sieben verschiedene Materialien bestimmt. Zwischen allen Materialien wurden signifikante Unterschiede bei den Distanzdifferenzen für jeweils einen Großteil der untersuchten Einfallswinkel festgestellt. Dies lässt den Schluss zu, dass den vorliegenden Distanzdifferenzen systematische Effekte zugrunde liegen. Es wurde auch festgestellt, dass keine signifikanten Unterschiede in den Unsicherheiten der Distanzdifferenzen bezüglich Material und Einfallswinkel vorliegen. Daher kann ein einheitlicher Wert von 0.2mm als Standardunsicherheit für die Distanzdifferenzen verwendet werden. Die Anwendung dieser Standardunsicherheit ist jedoch auf die ROSIAM-Methode, die untersuchten Materialien und den Bereich der untersuchten Einfallswinkel zu beschränken. Die Ergebnisse zeigen insgesamt, dass die ROSIAM-Methode geeignet ist, um vermutete systematische Effekte bei TLS-Distanzmessungen von Multistationen zu untersuchen.
Baugesetze der österreichischen Bundesländer und ihre Auswirkungen auf den Kataster
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2023
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
In dieser Arbeit werden mögliche Auswirkungen der verschiedenen österreichischen Baugesetze auf den Kataster untersucht. Dazu wird - um den Umfang dieser Arbeit zu beschränken - grundsätzlich von einem einfachen Neubauprojekt (Einfamilienhaus im Bauland) ausgegangen und speziell dahingehend die einzelnen Landesgesetze analysiert. Daraus werden für den Beispielfall bundesländerspezifische Prozessabläufe betreffend die Vermessung im Bauverfahren abgeleitet. In weiterer Folge werden qualitative Auswirkungen analysiert und auf die Unterschiede in den Prozessabläufen sowie auf unterschiedliche Definitionen und Anforderungen näher eingegangen. Quantitative Auswirkungen werden durch eine grobe Analyse der Regionaldaten des Bundesamtes für Eich- und Vermessungswesen abgeschätzt und dargestellt. Durch Interviews mit einzelnen Ingenieurkonsulenten für Vermessungswesen (IKV) sowie einer österreichweiten Umfrage, an der hauptsächlich Architekten und IKVs teilgenommen haben, wird das Bewusstsein für Vermessungsverpflichtungen in den jeweiligen Landesbaugesetzen im Allgemeinen und die aus ihrer Sicht möglichen Konflikt- und Verbesserungsmöglichkeiten zwischen Vermessungs- und Bauwesen im Speziellen näher beleuchtet. Abschließend wird eine Reihe von Verbesserungsmöglichkeiten in den Landesbaugesetzen betreffend die Vermessung aufgezeigt. Die Ergebnisse dieser Arbeit zeigen, dass die Landesbaugesetze Auswirkungen auf den Kataster in Bezug auf die technische Qualität haben können, rechtliche Auswirkungen sind durch die hierarchische Unterordnung der Landesgesetze unter die im Bundesrecht stehenden Gesetze des Katasters ausgeschlossen. Durch eine klare Definition von Vermessungspflichten im Bauverfahren sowie einheitliche Begriffsdefinitionen und Anforderungen könnte die Katasterqualität erhöht werden.
In dieser Arbeit werden mögliche Auswirkungen der verschiedenen österreichischen Baugesetze auf den Kataster untersucht. Dazu wird - um den Umfang dieser Arbeit zu beschränken - grundsätzlich von einem einfachen Neubauprojekt (Einfamilienhaus im Bauland) ausgegangen und speziell dahingehend die einzelnen Landesgesetze analysiert. Daraus werden für den Beispielfall bundesländerspezifische Prozessabläufe betreffend die Vermessung im Bauverfahren abgeleitet. In weiterer Folge werden qualitative Auswirkungen analysiert und auf die Unterschiede in den Prozessabläufen sowie auf unterschiedliche Definitionen und Anforderungen näher eingegangen. Quantitative Auswirkungen werden durch eine grobe Analyse der Regionaldaten des Bundesamtes für Eich- und Vermessungswesen abgeschätzt und dargestellt. Durch Interviews mit einzelnen Ingenieurkonsulenten für Vermessungswesen (IKV) sowie einer österreichweiten Umfrage, an der hauptsächlich Architekten und IKVs teilgenommen haben, wird das Bewusstsein für Vermessungsverpflichtungen in den jeweiligen Landesbaugesetzen im Allgemeinen und die aus ihrer Sicht möglichen Konflikt- und Verbesserungsmöglichkeiten zwischen Vermessungs- und Bauwesen im Speziellen näher beleuchtet. Abschließend wird eine Reihe von Verbesserungsmöglichkeiten in den Landesbaugesetzen betreffend die Vermessung aufgezeigt. Die Ergebnisse dieser Arbeit zeigen, dass die Landesbaugesetze Auswirkungen auf den Kataster in Bezug auf die technische Qualität haben können, rechtliche Auswirkungen sind durch die hierarchische Unterordnung der Landesgesetze unter die im Bundesrecht stehenden Gesetze des Katasters ausgeschlossen. Durch eine klare Definition von Vermessungspflichten im Bauverfahren sowie einheitliche Begriffsdefinitionen und Anforderungen könnte die Katasterqualität erhöht werden.
Ist deine Stadt einfach zu navigieren? Eigenschaften des Straßennetzes und deren Einfluss auf den Navigationserfolg
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr. Ioannis Giannopoulos MSc, Bartosz Mazurkiewicz MSc
Kurzfassung/Abstract
Wayfinding is an everyday human task when navigating through a city and the routes which are taken are always embedded into a street network. Hence, whenever wayfinding studies are conducted, they are influenced by the underlying network. This thesis investigates what street network properties impact the navigation success when using Free Choice Navigation as navigation paradigm. The street network properties characterise the neighbourhood, which surrounds a route from a starting point to a destination. Six different approaches are discussed, on how to define this neighbourhood. The chosen approach contrasts with the prevailing choice of geometric or administrative study areas and the focus is rather on the street network itself. It ensures that all nodes, that could be passed when navigating from A to B under the condition that the final path length is below a certain allowed maximum length, are within the area. After the definition of the neighbourhood area, 34 street network properties are discussed and computed. By using Principal Component Regression, the relation between 30 of those properties and the navigation success rate is investigated. The analysis is conducted for three cities: Vienna, Mexico City and Djibouti City. It is found that the ratio between the allowed detour and the mean segment length within the neighbourhood area impacts the success rate and is positively correlated with it. In addition, the city type of the cities where the routes are located seems to have an impact. The results suggest that Vienna appears to be more navigable than Mexico City, because the investigated neighbourhoods have a lower mean segment length. Furthermore, Vienna seems more navigable than Djibouti City, because the investigated routes are longer on average.
Wayfinding is an everyday human task when navigating through a city and the routes which are taken are always embedded into a street network. Hence, whenever wayfinding studies are conducted, they are influenced by the underlying network. This thesis investigates what street network properties impact the navigation success when using Free Choice Navigation as navigation paradigm. The street network properties characterise the neighbourhood, which surrounds a route from a starting point to a destination. Six different approaches are discussed, on how to define this neighbourhood. The chosen approach contrasts with the prevailing choice of geometric or administrative study areas and the focus is rather on the street network itself. It ensures that all nodes, that could be passed when navigating from A to B under the condition that the final path length is below a certain allowed maximum length, are within the area. After the definition of the neighbourhood area, 34 street network properties are discussed and computed. By using Principal Component Regression, the relation between 30 of those properties and the navigation success rate is investigated. The analysis is conducted for three cities: Vienna, Mexico City and Djibouti City. It is found that the ratio between the allowed detour and the mean segment length within the neighbourhood area impacts the success rate and is positively correlated with it. In addition, the city type of the cities where the routes are located seems to have an impact. The results suggest that Vienna appears to be more navigable than Mexico City, because the investigated neighbourhoods have a lower mean segment length. Furthermore, Vienna seems more navigable than Djibouti City, because the investigated routes are longer on average.
Identification of the Driving Dynamics of a Skid‐Steered Mobile Robot Based on Geodetic Measurements
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Finn Linzer MSc
Kurzfassung/Abstract
Die Fahrdynamik von antriebsgelenkten Fahrzeugen ist aufgrund der inhärenten Notwendigkeit des Traktionsverlusts für kurvenförmige Bewegungen, was zu komplexen Reifen-Boden- Interaktionen führt, schwer zu modellieren. Jedoch sind solche Fahrzeuge aufgrund ihrer robusten, kostengünstigen und wartungsarmen Konstruktion sowie ihrer hervorragenden Geländetauglichkeit gut geeignet für automatisierte Roboter. Eine mögliche Anwendung solcher Roboter ist zum Beispiel Mobile Mapping. Dieses kann von einem präzisen Modell der Fahrdynamik für genauere Zustandsschätzungen zur Georeferenzierung von Messungen und Navigation, als auch für die Systemsteuerung profitieren. Systemidentifikation ist ein Bereich der angewandten Mathematik, der Modelle dynamischer Systeme auf Basis von gemessenen Eingangs- und Ausgangsdaten des Systems schätzt. Der SINDY-Algorithmus (Sparse Identification of Nonlinear DYnamics) ist eine Methode, die sparse Regression verwendet, um interpretierbare und kompakte Modelle zu identifizieren, die einen Kompromiss aus Modellkomplexität und Prädiktionsgenauigkeit darstellen. In dieser Arbeit wurde die Eignung des SINDY-Algorithmus für die Systemidentifikation der Fahrdynamik des Clearpath Husky A200 auf Basis geodätischer Messungen getestet. Der Husky A200 ist ein mittelgroßer Roboter für Forschung und Entwicklung und stellt ein Beispiel für ein antriebsgelenktes Roboterfahrzeug dar, welches sich gut für Aufgaben wie Mobile Mapping eignet. Ein Messaufbau mit zwei Lasertrackern zur Datenerfassung wurde erstellt, der die Probleme der Zeitsynchronisation der verschiedenen Systemkomponenten und des Aufrechterhaltens einer ununterbrochenen Sichtlinie zwischen den Lasertrackern und ihrem Zielpunkt während des Fahrens löst. Eine Abfolge von Vorverarbeitungsschritten zur Berechnung der Eingangsdaten für die Systemidentifikation wurde etabliert. Zeitsynchronisation, Posen-Berechnung und Interpolation sowie Zustandsvektor-Berechnung und Transformation wurden dabei durchgeführt. Die Systemidentifikation mit SINDY wurde erfolgreich durchgeführt, wobei die Integralschreibweise von SINDY und ein umfangreiches Hyperparameter-Tuning eingesetzt wurden. Die Unsicherheit der Positionsschätzung des besten Modells betrug nach einer Integrationszeit von 5 Sekunden 14 cm und die Unsicherheit des Kurswinkels betrug 4,7◦. Diese Ergebnisse zeigen die Eignung von durch SINDY identifizierter Modelle für bestimmte Anwendungen der Zustandsschätzung. Potenzielle Schwächen und Verbesserungsmöglichkeiten des vorgestellten Messaufbaus und der Methodik wurden identifiziert und diskutiert.
Die Fahrdynamik von antriebsgelenkten Fahrzeugen ist aufgrund der inhärenten Notwendigkeit des Traktionsverlusts für kurvenförmige Bewegungen, was zu komplexen Reifen-Boden- Interaktionen führt, schwer zu modellieren. Jedoch sind solche Fahrzeuge aufgrund ihrer robusten, kostengünstigen und wartungsarmen Konstruktion sowie ihrer hervorragenden Geländetauglichkeit gut geeignet für automatisierte Roboter. Eine mögliche Anwendung solcher Roboter ist zum Beispiel Mobile Mapping. Dieses kann von einem präzisen Modell der Fahrdynamik für genauere Zustandsschätzungen zur Georeferenzierung von Messungen und Navigation, als auch für die Systemsteuerung profitieren. Systemidentifikation ist ein Bereich der angewandten Mathematik, der Modelle dynamischer Systeme auf Basis von gemessenen Eingangs- und Ausgangsdaten des Systems schätzt. Der SINDY-Algorithmus (Sparse Identification of Nonlinear DYnamics) ist eine Methode, die sparse Regression verwendet, um interpretierbare und kompakte Modelle zu identifizieren, die einen Kompromiss aus Modellkomplexität und Prädiktionsgenauigkeit darstellen. In dieser Arbeit wurde die Eignung des SINDY-Algorithmus für die Systemidentifikation der Fahrdynamik des Clearpath Husky A200 auf Basis geodätischer Messungen getestet. Der Husky A200 ist ein mittelgroßer Roboter für Forschung und Entwicklung und stellt ein Beispiel für ein antriebsgelenktes Roboterfahrzeug dar, welches sich gut für Aufgaben wie Mobile Mapping eignet. Ein Messaufbau mit zwei Lasertrackern zur Datenerfassung wurde erstellt, der die Probleme der Zeitsynchronisation der verschiedenen Systemkomponenten und des Aufrechterhaltens einer ununterbrochenen Sichtlinie zwischen den Lasertrackern und ihrem Zielpunkt während des Fahrens löst. Eine Abfolge von Vorverarbeitungsschritten zur Berechnung der Eingangsdaten für die Systemidentifikation wurde etabliert. Zeitsynchronisation, Posen-Berechnung und Interpolation sowie Zustandsvektor-Berechnung und Transformation wurden dabei durchgeführt. Die Systemidentifikation mit SINDY wurde erfolgreich durchgeführt, wobei die Integralschreibweise von SINDY und ein umfangreiches Hyperparameter-Tuning eingesetzt wurden. Die Unsicherheit der Positionsschätzung des besten Modells betrug nach einer Integrationszeit von 5 Sekunden 14 cm und die Unsicherheit des Kurswinkels betrug 4,7◦. Diese Ergebnisse zeigen die Eignung von durch SINDY identifizierter Modelle für bestimmte Anwendungen der Zustandsschätzung. Potenzielle Schwächen und Verbesserungsmöglichkeiten des vorgestellten Messaufbaus und der Methodik wurden identifiziert und diskutiert.
Eignung von Robotic-Totalstationen zur dynamischen Bauwerksüberwachung
Institut für Ingenieurgeodäsie und Messsysteme, Technische Universität Graz, 2023
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Lienhart Werner
Kurzfassung/Abstract
Der Überwachung von bestehenden Ingenieurbauten kommt aufgrund des zunehmenden Durchschnittsalters ebendieser eine immer größere Bedeutung zu. Während noch vor einigen Jahrzehnten deutlich mehr finanzielle Mittel für den Neubau als für die Instandhaltung von Infrastrukturbauten aufgewandt wurden, wendet sich mittlerweile diese Systematik. Aufgrund der hohen Neubaudichte in den 1960er, -70er und -80er Jahren kommt eine kritische Phase im Lebenszyklus dieser Bauwerke auf die Gesellschaft zu. Um die Bauwerke sicher und finanziell effizient betreiben zu können, bedarf es umfassender Überwachung der Infrastruktur. Unter anderem dazu geeignet ist die Totalstation als Nachfolger des Theodoliten. Für die Bauwerksüberwachung auf Basis von statischen Kennwerten wie Neigung, Verkippung, Setzung oder Durchbiegung hat sich die Totalstation entweder zur dauerhaften oder epochenweisen Messung bewährt. Oft reichen diese äußeren Parameter der Bauwerkserfassung aber nicht mehr aus, um eine umfassende Analyse des Bauwerkszustandes zu erstellen. Daher kommt den inneren Parametern eines Bauwerkes immer größere Bedeutung zu. Diese Parameter können zum Beispiel Eigenfrequenz und -form, Dämpfung oder Schwingungsintensität sein. Mit fortschreitender Entwicklung der Totalstation zur Robotic-Totalstation (RTS) können nicht nur Ziele automatisiert verfolgt, sondern auch Messungen dynamisch durchgeführt werden. Mithilfe dieser dynamischen Beobachtungen ist es möglich, Schwingungen von Objekten zu erfassen und somit Aussagen über den Zustand des Objektes zu treffen. Die dynamische Messung mit RTS kann dazu beitragen, diese Zustandserfassung zu verbessern. Die RTS als Multisensorsystem ist hinsichtlich ihrer Eignung zur dynamischen Messung bereits erprobt. Allerdings bleiben einige Aspekte dieser dynamischen Anwendung weitgehend unbeachtet. So wird der Einfluss des Ziels auf die dynamische Messung bei unterschiedlichen Distanzen zum Ziel nicht weiter beachtet. Auch die Robustheit der dynamischen Distanzmessung als kritische Komponente der dynamischen Messung, sowie die generelle temporäre Stabilität werden nicht hinreichend untersucht. In der vorliegenden Arbeit werden an vier verschiedenen Objekten Versuche mit RTS durchgeführt. Im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme (IGMS) werden anhand eines Brückenmodells verschiedene Versuche durchgeführt. Dabei wird die Brücke einerseits durch einmalige Anregung in freie Schwingung versetzt, andererseits werden mithilfe eines Shakers verschiedene Schwingungen kontrolliert auf das Modell übertragen. Gemessen wird dabei mit einer Leica TS15 mit einer nominellen Messrate von 10 Hz. Dabei wird deutlich, dass eine Messrate von 10 Hz möglicherweise nicht ausreicht, um Brückenschwingungen vollständig erfassen zu können. Daher wird bei dem zweiten Versuch anstelle der Leica TS15 eine Leica MS60 als RTS verwendet, wobei die nominelle Messrate 20 Hz beträgt. Die Versuche werden am Messdach des IGMS mithilfe eines Shakers durchgeführt. Dabei werden ein Leica Rund- als auch ein Miniprisma als Ziel verwendet, wie auch unterschiedliche Distanzen zum Ziel getestet. Der Shaker wird dabei in horizontaler und vertikaler Konfiguration betrieben. Um die Bedingungen und Schwingungen von realen Brückenbauwerken untersuchen zu können, werden auch an der Grazer Augartenbrücke Versuche unternommen. Dabei wird die Fußgängerbrücke einerseits durch natürliche Anregung in Schwingung versetzt, andererseits wird das Bauwerk, durch Springen der zwei messenden Personen auf dem Objekt, angeregt. Außerdem überquert eine Schulklasse die Brücke mehrmals in unterschiedlichen Stilen (gehend, laufend, springend), um verschiedene Amplituden zu erzeugen. Auch bei diesen Versuchen werden ein Leica Mini- und Rundprisma als Ziele für die RTS verwendet. Als größtes Versuchsobjekt kommt die Tiroler Gschnitztalbrücke zur Anwendung. An der 7-feldrigen Autobahnbrücke wird ein Leica Monitoringprisma an einem Randfeld montiert und dieses mit einer Leica MS60 beobachtet. Dabei ist zu erkennen, dass es durchaus von Vorteil ist, auch eine dynamische Distanzmessung durchzuführen, um Bewegungen in horizontaler Richtung detektieren zu können und so Schlüsse auf das Tragverhalten des Bauwerks zu ziehen. Aus der Arbeit geht hervor, dass der Einfluss des Zielprismas vor allem bei kurzen Distanzen beachtet werden muss. Anders als angenommen ist die Performance des Leica Miniprismas dabei besser als das eines klassischen Rundprismas. Die Elektronische Distanz Messung bleibt nach wie vor das limitierende Element bei der dynamischen Messung. Hier zeigt sich, dass große Amplituden in Kombination mit kurzen Distanzen die größten Probleme bereiten. Es ist durchaus von Vorteil auch Distanzinformationen der dynamischen Messungen zu erhalten, um das dynamische Verhalten von Bauwerken noch besser erfassen zu können.
Der Überwachung von bestehenden Ingenieurbauten kommt aufgrund des zunehmenden Durchschnittsalters ebendieser eine immer größere Bedeutung zu. Während noch vor einigen Jahrzehnten deutlich mehr finanzielle Mittel für den Neubau als für die Instandhaltung von Infrastrukturbauten aufgewandt wurden, wendet sich mittlerweile diese Systematik. Aufgrund der hohen Neubaudichte in den 1960er, -70er und -80er Jahren kommt eine kritische Phase im Lebenszyklus dieser Bauwerke auf die Gesellschaft zu. Um die Bauwerke sicher und finanziell effizient betreiben zu können, bedarf es umfassender Überwachung der Infrastruktur. Unter anderem dazu geeignet ist die Totalstation als Nachfolger des Theodoliten. Für die Bauwerksüberwachung auf Basis von statischen Kennwerten wie Neigung, Verkippung, Setzung oder Durchbiegung hat sich die Totalstation entweder zur dauerhaften oder epochenweisen Messung bewährt. Oft reichen diese äußeren Parameter der Bauwerkserfassung aber nicht mehr aus, um eine umfassende Analyse des Bauwerkszustandes zu erstellen. Daher kommt den inneren Parametern eines Bauwerkes immer größere Bedeutung zu. Diese Parameter können zum Beispiel Eigenfrequenz und -form, Dämpfung oder Schwingungsintensität sein. Mit fortschreitender Entwicklung der Totalstation zur Robotic-Totalstation (RTS) können nicht nur Ziele automatisiert verfolgt, sondern auch Messungen dynamisch durchgeführt werden. Mithilfe dieser dynamischen Beobachtungen ist es möglich, Schwingungen von Objekten zu erfassen und somit Aussagen über den Zustand des Objektes zu treffen. Die dynamische Messung mit RTS kann dazu beitragen, diese Zustandserfassung zu verbessern. Die RTS als Multisensorsystem ist hinsichtlich ihrer Eignung zur dynamischen Messung bereits erprobt. Allerdings bleiben einige Aspekte dieser dynamischen Anwendung weitgehend unbeachtet. So wird der Einfluss des Ziels auf die dynamische Messung bei unterschiedlichen Distanzen zum Ziel nicht weiter beachtet. Auch die Robustheit der dynamischen Distanzmessung als kritische Komponente der dynamischen Messung, sowie die generelle temporäre Stabilität werden nicht hinreichend untersucht. In der vorliegenden Arbeit werden an vier verschiedenen Objekten Versuche mit RTS durchgeführt. Im Messlabor des Instituts für Ingenieurgeodäsie und Messsysteme (IGMS) werden anhand eines Brückenmodells verschiedene Versuche durchgeführt. Dabei wird die Brücke einerseits durch einmalige Anregung in freie Schwingung versetzt, andererseits werden mithilfe eines Shakers verschiedene Schwingungen kontrolliert auf das Modell übertragen. Gemessen wird dabei mit einer Leica TS15 mit einer nominellen Messrate von 10 Hz. Dabei wird deutlich, dass eine Messrate von 10 Hz möglicherweise nicht ausreicht, um Brückenschwingungen vollständig erfassen zu können. Daher wird bei dem zweiten Versuch anstelle der Leica TS15 eine Leica MS60 als RTS verwendet, wobei die nominelle Messrate 20 Hz beträgt. Die Versuche werden am Messdach des IGMS mithilfe eines Shakers durchgeführt. Dabei werden ein Leica Rund- als auch ein Miniprisma als Ziel verwendet, wie auch unterschiedliche Distanzen zum Ziel getestet. Der Shaker wird dabei in horizontaler und vertikaler Konfiguration betrieben. Um die Bedingungen und Schwingungen von realen Brückenbauwerken untersuchen zu können, werden auch an der Grazer Augartenbrücke Versuche unternommen. Dabei wird die Fußgängerbrücke einerseits durch natürliche Anregung in Schwingung versetzt, andererseits wird das Bauwerk, durch Springen der zwei messenden Personen auf dem Objekt, angeregt. Außerdem überquert eine Schulklasse die Brücke mehrmals in unterschiedlichen Stilen (gehend, laufend, springend), um verschiedene Amplituden zu erzeugen. Auch bei diesen Versuchen werden ein Leica Mini- und Rundprisma als Ziele für die RTS verwendet. Als größtes Versuchsobjekt kommt die Tiroler Gschnitztalbrücke zur Anwendung. An der 7-feldrigen Autobahnbrücke wird ein Leica Monitoringprisma an einem Randfeld montiert und dieses mit einer Leica MS60 beobachtet. Dabei ist zu erkennen, dass es durchaus von Vorteil ist, auch eine dynamische Distanzmessung durchzuführen, um Bewegungen in horizontaler Richtung detektieren zu können und so Schlüsse auf das Tragverhalten des Bauwerks zu ziehen. Aus der Arbeit geht hervor, dass der Einfluss des Zielprismas vor allem bei kurzen Distanzen beachtet werden muss. Anders als angenommen ist die Performance des Leica Miniprismas dabei besser als das eines klassischen Rundprismas. Die Elektronische Distanz Messung bleibt nach wie vor das limitierende Element bei der dynamischen Messung. Hier zeigt sich, dass große Amplituden in Kombination mit kurzen Distanzen die größten Probleme bereiten. Es ist durchaus von Vorteil auch Distanzinformationen der dynamischen Messungen zu erhalten, um das dynamische Verhalten von Bauwerken noch besser erfassen zu können.
Untersuchung von 3D-Konfigurationen für Bildgebungsverfahren der Spektralen Induzierten Polarisation
Department für Geodäsie und Geoinformation, Forschungsgruppe Geophysik, Technische Universität Wien, 2023
Betreuer: Prof. Dr. Adrian Flores-Orozco, Prof. Dr. Andrew Binley
Kurzfassung/Abstract
3D-Verfahren der Induzierten Polarisation (IP) werden gewöhnlich unter Verwendung paralleler 2D-Elektrodenlinien mit Messungen innerhalb der einzelnen Linien durchgeführt. Die Anwendung solcher Messkonfigurationen führt jedoch zu einer verringerten Auflösung zwischen den Linien, was besonders im Falle heterogen verteilter elektrischer Eigenschaften im Untergrund, wie z.B. in Deponien, kritisch ist. Um derartige Probleme zu vermeiden, untersuchen wir im Rahmen dieser Arbeit, wie 3D-Konfigurationen die Auflösung bei Messungen der Spektralen IP verbessern können. Genauer gesagt wurde untersucht, wie gut verschiedene 2D- und 3D-Elektrodenkonfigurationen bei Verfahren der Einzel- und Multi-Frequenz IP die elektrischen Eigenschaften des Untergrundes wiedergeben können. Dazu wurden zuerst die Unterschiede zwischen parallelen 2D-Linien und zwei 3D-Konfigurationen mithilfe einer numerischen Modellierung herausgearbeitet. Als 3D-Konfigurationen wurden eine Grid-Konfiguration, bei der die Elektroden in einem quadratischen Raster angeordnet wurden, sowie eine Kreis-Konfiguration, bei der die Elektroden in vier konzentrischen Kreisen angeordnet wurden, getestet. Um die Konfigurationen unter richtigen Feldbedingungen zu testen, wurden Messungen mit den 2D- und 3D-Konfigurationen im nächsten Schritt in zwei Deponien durchgeführt. Sowohl die Ergebnisse der numerischen Modellierung als auch die Ergebnisse der Feldmessungen zeigen, dass sich bei Messungen mit den parallelen 2D-Linien Artefakte und eine verringerte Auflösung im resultierenden 3D-Modell bilden, besonders im Falle polarisierbarer Anomalien. Im Gegensatz dazu zeigen die Ergebnisse der numerischen Modellierung und der Felddaten, dass 3D-Konfigurationen IP-Anomalien gut detektieren können und so zu einer Verbesserung der Abschätzung der räumlichen Verbreitung von Müll beitragen. Weiters zeigen die Ergebnisse, dass die Raster-Konfiguration mit Messungen über Elektrodenlinien hinweg und verschiedenen Dipolrichtungen bessere Ergebnisse liefert als die Kreis-Konfiguration, die im Zentrum ihrer konzentrischen Kreise eine verringerte Auflösung aufweist. Zusätzliche Untersuchungen der Frequenzabhängigkeit der synthetischen Daten und der Felddaten zeigen, dass 3D-Konfigurationen stabilere Spektren der komplexen Leitfähigkeit liefern als 2D-Konfigurationen. Stabile Spektren sind für eine genaue Schätzung von Parametern, die die Frequenzabhängigkeit beschreiben (z.B. Cole Cole), nötig.
3D-Verfahren der Induzierten Polarisation (IP) werden gewöhnlich unter Verwendung paralleler 2D-Elektrodenlinien mit Messungen innerhalb der einzelnen Linien durchgeführt. Die Anwendung solcher Messkonfigurationen führt jedoch zu einer verringerten Auflösung zwischen den Linien, was besonders im Falle heterogen verteilter elektrischer Eigenschaften im Untergrund, wie z.B. in Deponien, kritisch ist. Um derartige Probleme zu vermeiden, untersuchen wir im Rahmen dieser Arbeit, wie 3D-Konfigurationen die Auflösung bei Messungen der Spektralen IP verbessern können. Genauer gesagt wurde untersucht, wie gut verschiedene 2D- und 3D-Elektrodenkonfigurationen bei Verfahren der Einzel- und Multi-Frequenz IP die elektrischen Eigenschaften des Untergrundes wiedergeben können. Dazu wurden zuerst die Unterschiede zwischen parallelen 2D-Linien und zwei 3D-Konfigurationen mithilfe einer numerischen Modellierung herausgearbeitet. Als 3D-Konfigurationen wurden eine Grid-Konfiguration, bei der die Elektroden in einem quadratischen Raster angeordnet wurden, sowie eine Kreis-Konfiguration, bei der die Elektroden in vier konzentrischen Kreisen angeordnet wurden, getestet. Um die Konfigurationen unter richtigen Feldbedingungen zu testen, wurden Messungen mit den 2D- und 3D-Konfigurationen im nächsten Schritt in zwei Deponien durchgeführt. Sowohl die Ergebnisse der numerischen Modellierung als auch die Ergebnisse der Feldmessungen zeigen, dass sich bei Messungen mit den parallelen 2D-Linien Artefakte und eine verringerte Auflösung im resultierenden 3D-Modell bilden, besonders im Falle polarisierbarer Anomalien. Im Gegensatz dazu zeigen die Ergebnisse der numerischen Modellierung und der Felddaten, dass 3D-Konfigurationen IP-Anomalien gut detektieren können und so zu einer Verbesserung der Abschätzung der räumlichen Verbreitung von Müll beitragen. Weiters zeigen die Ergebnisse, dass die Raster-Konfiguration mit Messungen über Elektrodenlinien hinweg und verschiedenen Dipolrichtungen bessere Ergebnisse liefert als die Kreis-Konfiguration, die im Zentrum ihrer konzentrischen Kreise eine verringerte Auflösung aufweist. Zusätzliche Untersuchungen der Frequenzabhängigkeit der synthetischen Daten und der Felddaten zeigen, dass 3D-Konfigurationen stabilere Spektren der komplexen Leitfähigkeit liefern als 2D-Konfigurationen. Stabile Spektren sind für eine genaue Schätzung von Parametern, die die Frequenzabhängigkeit beschreiben (z.B. Cole Cole), nötig.
Veränderung der C-Band Rückstreuung nach Waldbränden in arktischen Permafrostregionen
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2023
Betreuer: Priv.-Doz. Dipl.-Geograf Dr. Annett Bartsch
Kurzfassung/Abstract
Große Teile der Permafrostregionen sind von Bränden betroffen. Waldbrände in diesen Regionen haben sowohl unmittelbare als auch langfristige Auswirkungen. Waldbrände verursachen Störungen, die sich über viele Jahre auf den darunter liegenden Permafrost auswirken. Das gestörte Gebiet kann noch Jahre nach dem Brandereignis veränderte Schnee- und Bodeneigenschaften aufweisen. C-Band-SAR-Beobachtungen haben sich als äußerst wertvoll für die Identifizierung von Schneestrukturveränderungen in der Arktis erwiesen. Die Aufnahmen unter gefrorenen Bedingungen spiegeln die Oberflächenrauheit und Volumenstreuung wider, aus denen Schnee, Bodenrauheit sowie Vegetationseigenschaften abgeleitet werden können. Das Ziel dieser Studie besteht darin, die Veränderungen der C-Band-Winterrückstreuung im Laufe der Jahre seit einem Brand für eine größere Region und Stichprobengröße zu untersuchen. Im Mittelpunkt steht die Anwendung von Sentinel-1 Synthetic Aperture Radar (SAR) mit einem Space-for-Time Konzept. Es erfolgt ein Vergleich von Brandnarben unterschiedlichen Alters auf der Grundlage der seit 2016 verfügbaren Sentinel-1-Aufnahmen. In einer ersten Untersuchung wurden verschiedene Testgebiete in der gesamten Arktisregion ausgewählt und Brandgebiete bis zurück aus den 1940er Jahren werden berücksichtigt. Darüber hinaus werden Referenzflächen in störungsfreien Gebieten zur Analyse herangezogen. Die Identifizierung und der Zeitpunkt von Brandereignissen wurden anhand von Satellitendaten der AVHRR- und MODIS-Sensoren bestimmt. Während der Auswertung anhand von hochauflösenden Satellitenbildern wurde deutlich, dass präzisere Angaben zum Brandort unumgänglich sind. Die bereitgestellten Daten durch den Einsatz von AVHRR und MODIS waren aufgrund ihrer begrenzten Qualität und Auflösung nicht zufriedenstellend. Detailliertere Informationen über die Brände können durch die Alaska Large Fire Database erlangt werden. Aus diesem Grund wurde das Untersuchungsgebiet schließlich auf Alaska beschränkt. Mehrere Standorte in ganz Alaska wurden ausgewählt, basierend auf einem Permafrostanteil von über 70%, den Vegetationstypen und den Jahren seit dem Brandereignis. Frühere Studien haben gezeigt, dass meteorologische Bedingungen während Sentinel-1-Aufnahme die C-Band-Rückstreuung erheblich beeinflussen können. Um die Auswirkungen von Niederschlägen, insbesondere Rain-on-snow, und den Einfluss der Lufttemperatur abzuschwächen, wurden die Sentinel-1-Daten (C-Band-Rückstreuung) nach Zeit- und Temperaturkriterien gefiltert. Für die Analyse wurde die 2-Meter-Lufttemperatur aus der Copernicus ERA5-Reanalyse mit einer Temperaturuntergrenze von -15 °C verwendet. Eine Temperaturobergrenze von -1,5 °C wurde verwendet, um den Einfluss von flüssigem Wasser zu minimieren. Zur Auswahl der Untersuchungsgebiete wurden zwei Punkte mit ähnlicher Vegetation ausgewählt, wobei sich ein Punkt innerhalb des verbrannten Gebiets und der andere in ungestörten Regionen (sogenannte Referenzgebiete) befanden. Die Analyse wurde für einen Bereich mit einer Größe von 10 x 10 m durchgeführt und die Rückstreuwerte wurden für jeden dieser Bereiche gemittelt. Die Ergebnisse zeigen, dass Waldbrände einen langfristigen Einfluss auf die C-Band-Rückstreuung haben könnten, der aus veränderten Schneeeigenschaften resultiert. Auch nach der Vegetationserholung zeigen Gebiete mit Waldbrandereignissen eine stärkere C-Band-Rückstreuung in VV-Polarisation als die Referenzgebiete. In der arktischen Region ist der Einsatz von Fernerkundungstechniken zur Datenerfassung aufgrund der enormen Fläche in der Forschung von entscheidender Bedeutung. Es wurde festgestellt, dass Waldbrände weite Auswirkungen haben, die über die Wiederherstellung der Vegetation hinausgehen. Daher ist es wichtig, diesen Einfluss bei der Anwendung von C-Band-Winterrückstreuung zu berücksichtigen und so eine unvoreingenommene Ergebnisgewinnung zu gewährleisten. Im Rahmen der Untersuchung wurden Trends in Regionen beobachtet, die durch kontinuierlichen Permafrost gekennzeichnet sind. Jedoch sind weitere Untersuchungen in verschiedenen Regionen und Gebieten mit unterschiedlichen Permafrostanteilen notwendig, um das Verständnis der Auswirkungen von Waldbränden zu verbessern.
Große Teile der Permafrostregionen sind von Bränden betroffen. Waldbrände in diesen Regionen haben sowohl unmittelbare als auch langfristige Auswirkungen. Waldbrände verursachen Störungen, die sich über viele Jahre auf den darunter liegenden Permafrost auswirken. Das gestörte Gebiet kann noch Jahre nach dem Brandereignis veränderte Schnee- und Bodeneigenschaften aufweisen. C-Band-SAR-Beobachtungen haben sich als äußerst wertvoll für die Identifizierung von Schneestrukturveränderungen in der Arktis erwiesen. Die Aufnahmen unter gefrorenen Bedingungen spiegeln die Oberflächenrauheit und Volumenstreuung wider, aus denen Schnee, Bodenrauheit sowie Vegetationseigenschaften abgeleitet werden können. Das Ziel dieser Studie besteht darin, die Veränderungen der C-Band-Winterrückstreuung im Laufe der Jahre seit einem Brand für eine größere Region und Stichprobengröße zu untersuchen. Im Mittelpunkt steht die Anwendung von Sentinel-1 Synthetic Aperture Radar (SAR) mit einem Space-for-Time Konzept. Es erfolgt ein Vergleich von Brandnarben unterschiedlichen Alters auf der Grundlage der seit 2016 verfügbaren Sentinel-1-Aufnahmen. In einer ersten Untersuchung wurden verschiedene Testgebiete in der gesamten Arktisregion ausgewählt und Brandgebiete bis zurück aus den 1940er Jahren werden berücksichtigt. Darüber hinaus werden Referenzflächen in störungsfreien Gebieten zur Analyse herangezogen. Die Identifizierung und der Zeitpunkt von Brandereignissen wurden anhand von Satellitendaten der AVHRR- und MODIS-Sensoren bestimmt. Während der Auswertung anhand von hochauflösenden Satellitenbildern wurde deutlich, dass präzisere Angaben zum Brandort unumgänglich sind. Die bereitgestellten Daten durch den Einsatz von AVHRR und MODIS waren aufgrund ihrer begrenzten Qualität und Auflösung nicht zufriedenstellend. Detailliertere Informationen über die Brände können durch die Alaska Large Fire Database erlangt werden. Aus diesem Grund wurde das Untersuchungsgebiet schließlich auf Alaska beschränkt. Mehrere Standorte in ganz Alaska wurden ausgewählt, basierend auf einem Permafrostanteil von über 70%, den Vegetationstypen und den Jahren seit dem Brandereignis. Frühere Studien haben gezeigt, dass meteorologische Bedingungen während Sentinel-1-Aufnahme die C-Band-Rückstreuung erheblich beeinflussen können. Um die Auswirkungen von Niederschlägen, insbesondere Rain-on-snow, und den Einfluss der Lufttemperatur abzuschwächen, wurden die Sentinel-1-Daten (C-Band-Rückstreuung) nach Zeit- und Temperaturkriterien gefiltert. Für die Analyse wurde die 2-Meter-Lufttemperatur aus der Copernicus ERA5-Reanalyse mit einer Temperaturuntergrenze von -15 °C verwendet. Eine Temperaturobergrenze von -1,5 °C wurde verwendet, um den Einfluss von flüssigem Wasser zu minimieren. Zur Auswahl der Untersuchungsgebiete wurden zwei Punkte mit ähnlicher Vegetation ausgewählt, wobei sich ein Punkt innerhalb des verbrannten Gebiets und der andere in ungestörten Regionen (sogenannte Referenzgebiete) befanden. Die Analyse wurde für einen Bereich mit einer Größe von 10 x 10 m durchgeführt und die Rückstreuwerte wurden für jeden dieser Bereiche gemittelt. Die Ergebnisse zeigen, dass Waldbrände einen langfristigen Einfluss auf die C-Band-Rückstreuung haben könnten, der aus veränderten Schneeeigenschaften resultiert. Auch nach der Vegetationserholung zeigen Gebiete mit Waldbrandereignissen eine stärkere C-Band-Rückstreuung in VV-Polarisation als die Referenzgebiete. In der arktischen Region ist der Einsatz von Fernerkundungstechniken zur Datenerfassung aufgrund der enormen Fläche in der Forschung von entscheidender Bedeutung. Es wurde festgestellt, dass Waldbrände weite Auswirkungen haben, die über die Wiederherstellung der Vegetation hinausgehen. Daher ist es wichtig, diesen Einfluss bei der Anwendung von C-Band-Winterrückstreuung zu berücksichtigen und so eine unvoreingenommene Ergebnisgewinnung zu gewährleisten. Im Rahmen der Untersuchung wurden Trends in Regionen beobachtet, die durch kontinuierlichen Permafrost gekennzeichnet sind. Jedoch sind weitere Untersuchungen in verschiedenen Regionen und Gebieten mit unterschiedlichen Permafrostanteilen notwendig, um das Verständnis der Auswirkungen von Waldbränden zu verbessern.
Prüf- und Qualitätskriterien zur Berichtigung des Katasters
Department für Geodäsie und Geoinformation, Forschungsgruppe Geoinformation, Technische Universität Wien, 2023
Betreuer: Privatdoz. Dipl.-Ing. Dr. Gerhard Navratil
Kurzfassung/Abstract
Der Kataster in Österreich hat die wichtige Aufgabe, Eigentumssicherung durch Grundstücksgrenzen zu gewährleisten und verbindet somit Natur und Gesellschaft. Derzeit sind von etwa 10 Millionen Grundstücken lediglich 2 Millionen im Grenzkataster erfasst und besitzen rechtlich gesicherte Grenzen. Die restlichen 8 Millionen sind im Grundsteuerkataster verzeichnet, dessen Grenzen lediglich zur Veranschaulichung dienen. Die Vervollständigung des Grenzkatasters erfordert praktische Vermessungen vor Ort, für die private Vermessungsingenieure neben staatlichen Behörden beauftragt werden. In bestimmten Fällen kann der Kataster durch eine allgemeine Neuanlegung erneuert werden. Diese Diplomarbeit befasst sich mit Prüf- und Qualitätskriterien der Katastralmappe, um die Grundlage für die Berichtigung falscher Grenzverläufe zu schaffen. Verschiedene Lösungsansätze zur Berichtigung des Katasters und seiner Grenzen werden untersucht, darunter, was ein Vermessungsbefugter allein lösen kann, welche Aufgaben in Kooperation zwischen Vermessungsbefugten und Vermessungsamt gelöst werden können und welche Fälle technisch unauflösbar sind. Die Forschung verfolgte zwei Ansätze: die Beschreibung der rechtlichen Rahmenbedingungen und die Erhebung statistischer Daten in einem Testgebiet namens Sachsenheim in der Katastralgemeinde Elixhausen im Bundesland Salzburg, um Entscheidungskriterien für die Berichtigung von Grenzen im Kataster zu entwickeln. Das Ziel dieser Arbeit ist es, den Umgang mit der Einreichung und Bewertung von qualitätsverbessernden Maßnahmen zur Berichtigung von Grundstücksgrenzen zu erleichtern. Die Ergebnisse zeigen, dass in sich schlüssige und beanstandungsfreie Korrekturen des Katasters innerhalb der rechtlichen Rahmenbedingungen möglich sind. Komplexere und widersprüchliche Katasterdaten erfordern eine sorgfältige Zusammenarbeit zwischen Vermessungsbefugten und Vermessungsamt. In Ausnahmefällen, in denen Unauflösbarkeiten bestehen bleiben, kann eine allgemeine Neuanlegung als Lösung dienen. Die gewonnenen Erkenntnisse tragen dazu bei, die Genauigkeit und Verlässlichkeit des Katasters in Sachsenheim und darüber hinaus zu optimieren und somit einen wertvollen Beitrag zum Vermessungswesen zu leisten.
Der Kataster in Österreich hat die wichtige Aufgabe, Eigentumssicherung durch Grundstücksgrenzen zu gewährleisten und verbindet somit Natur und Gesellschaft. Derzeit sind von etwa 10 Millionen Grundstücken lediglich 2 Millionen im Grenzkataster erfasst und besitzen rechtlich gesicherte Grenzen. Die restlichen 8 Millionen sind im Grundsteuerkataster verzeichnet, dessen Grenzen lediglich zur Veranschaulichung dienen. Die Vervollständigung des Grenzkatasters erfordert praktische Vermessungen vor Ort, für die private Vermessungsingenieure neben staatlichen Behörden beauftragt werden. In bestimmten Fällen kann der Kataster durch eine allgemeine Neuanlegung erneuert werden. Diese Diplomarbeit befasst sich mit Prüf- und Qualitätskriterien der Katastralmappe, um die Grundlage für die Berichtigung falscher Grenzverläufe zu schaffen. Verschiedene Lösungsansätze zur Berichtigung des Katasters und seiner Grenzen werden untersucht, darunter, was ein Vermessungsbefugter allein lösen kann, welche Aufgaben in Kooperation zwischen Vermessungsbefugten und Vermessungsamt gelöst werden können und welche Fälle technisch unauflösbar sind. Die Forschung verfolgte zwei Ansätze: die Beschreibung der rechtlichen Rahmenbedingungen und die Erhebung statistischer Daten in einem Testgebiet namens Sachsenheim in der Katastralgemeinde Elixhausen im Bundesland Salzburg, um Entscheidungskriterien für die Berichtigung von Grenzen im Kataster zu entwickeln. Das Ziel dieser Arbeit ist es, den Umgang mit der Einreichung und Bewertung von qualitätsverbessernden Maßnahmen zur Berichtigung von Grundstücksgrenzen zu erleichtern. Die Ergebnisse zeigen, dass in sich schlüssige und beanstandungsfreie Korrekturen des Katasters innerhalb der rechtlichen Rahmenbedingungen möglich sind. Komplexere und widersprüchliche Katasterdaten erfordern eine sorgfältige Zusammenarbeit zwischen Vermessungsbefugten und Vermessungsamt. In Ausnahmefällen, in denen Unauflösbarkeiten bestehen bleiben, kann eine allgemeine Neuanlegung als Lösung dienen. Die gewonnenen Erkenntnisse tragen dazu bei, die Genauigkeit und Verlässlichkeit des Katasters in Sachsenheim und darüber hinaus zu optimieren und somit einen wertvollen Beitrag zum Vermessungswesen zu leisten.
Analyse der Benützungsarten und Nutzungen des Katasters im Hinblick auf die Verwendbarkeit als Basis für umweltrelevante Analysen - exemplarische Detailuntersuchung der Versiegelung
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2023
Betreuer: Mag. Dipl.-Ing. Dr. Ernst Primas
Kurzfassung/Abstract
Die Arbeit hat das Ziel, die Hypothese: „Der österreichische Kataster kann als Basis für umweltrelevante Analysen genutzt werden.”, zu untersuchen. Dabei werden im Speziellen die Benutzungen und Nutzungsarten nach der Benützungsarten-Nutzungen-Verordnung (BANU – V) analysiert. Um die Verwendbarkeit und bestehende Limitationen aufzuzeigen, wird im ersten Teil die Qualität des Katasters untersucht. Dabei werden die relevanten Qualitätsmerkmale Georeferenzierung, Aktualität und die Flächengenauigkeit dargestellt. Die Flächenproblematik, die aufgrund historischer Entwicklungen entstanden ist, wird verdeutlicht und zeigt, dass exakte Flächenangaben (0.1 % rel. Flächengenauigkeit) nur in zur Gänze vermessenen Grundstücken möglich sind. Da die Nutzungen eine zentrale Rolle in den Analysen spielen, wird deren historische Entwicklung bis zu den aktuellen Nutzungen dargestellt, um im Anschluss diese aktuellen Nutzungen mit relevanten Umweltindikatoren in Verbindung zu bringen. Dazu wird der Katalog der Umweltindikatoren der Europäischen Umweltagentur und Eurostat untersucht. Diese Untersuchung zeigte 17 mögliche Anwendungen des Katasters für umweltrelevante Analysen. Dabei werden zwei mögliche Beispiele, die Flächeninanspruchnahme und Emission auf Basis der Landnutzungsänderung, näher ausgeführt. Im letzten Teil wird im Detail untersucht, wie gut Versiegelung vom Kataster abgeleitet werden kann. Dabei findet ein Vergleich mit hochauflösenden Orthofotodaten statt. Dieser Vergleich führte zu der Erkenntnis, dass eine exakte Aussage der Versiegelung (auf dem Grad der Genauigkeit des Grenzkatasters), mit diesen Bilddaten nicht möglich ist. Dies ist hauptsächlich aufgrund der Art der Aufnahme (Verdeckung), der Fall. Es wurde zudem festgestellt, dass für die Versiegelungsanalyse auf Basis des Katasters Werte für den Versiegelungsgrad von teilweise versiegelten Flächen notwendig sind. Die einzige Versiegelungsanalyse die auf Basis des Katasters ohne dieses stattfinden kann, ist für Gebäude. Zudem sind für die Verbesserung der Analyse der Versiegelung auf Basis des Katasters zusätzliche Nutzungen zu den in der BANU-Verordnung vorhandenen Nutzungen notwendig. Diese ergeben sich aus den Detailuntersuchungen aus den Nutzungen in den Testgebieten.
Die Arbeit hat das Ziel, die Hypothese: „Der österreichische Kataster kann als Basis für umweltrelevante Analysen genutzt werden.”, zu untersuchen. Dabei werden im Speziellen die Benutzungen und Nutzungsarten nach der Benützungsarten-Nutzungen-Verordnung (BANU – V) analysiert. Um die Verwendbarkeit und bestehende Limitationen aufzuzeigen, wird im ersten Teil die Qualität des Katasters untersucht. Dabei werden die relevanten Qualitätsmerkmale Georeferenzierung, Aktualität und die Flächengenauigkeit dargestellt. Die Flächenproblematik, die aufgrund historischer Entwicklungen entstanden ist, wird verdeutlicht und zeigt, dass exakte Flächenangaben (0.1 % rel. Flächengenauigkeit) nur in zur Gänze vermessenen Grundstücken möglich sind. Da die Nutzungen eine zentrale Rolle in den Analysen spielen, wird deren historische Entwicklung bis zu den aktuellen Nutzungen dargestellt, um im Anschluss diese aktuellen Nutzungen mit relevanten Umweltindikatoren in Verbindung zu bringen. Dazu wird der Katalog der Umweltindikatoren der Europäischen Umweltagentur und Eurostat untersucht. Diese Untersuchung zeigte 17 mögliche Anwendungen des Katasters für umweltrelevante Analysen. Dabei werden zwei mögliche Beispiele, die Flächeninanspruchnahme und Emission auf Basis der Landnutzungsänderung, näher ausgeführt. Im letzten Teil wird im Detail untersucht, wie gut Versiegelung vom Kataster abgeleitet werden kann. Dabei findet ein Vergleich mit hochauflösenden Orthofotodaten statt. Dieser Vergleich führte zu der Erkenntnis, dass eine exakte Aussage der Versiegelung (auf dem Grad der Genauigkeit des Grenzkatasters), mit diesen Bilddaten nicht möglich ist. Dies ist hauptsächlich aufgrund der Art der Aufnahme (Verdeckung), der Fall. Es wurde zudem festgestellt, dass für die Versiegelungsanalyse auf Basis des Katasters Werte für den Versiegelungsgrad von teilweise versiegelten Flächen notwendig sind. Die einzige Versiegelungsanalyse die auf Basis des Katasters ohne dieses stattfinden kann, ist für Gebäude. Zudem sind für die Verbesserung der Analyse der Versiegelung auf Basis des Katasters zusätzliche Nutzungen zu den in der BANU-Verordnung vorhandenen Nutzungen notwendig. Diese ergeben sich aus den Detailuntersuchungen aus den Nutzungen in den Testgebieten.
Tool zur Visualisierung ausgewählter Metadaten von Grundstücken im Kataster zum Zwecke qualitativer Analysen
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2023
Betreuer: Mag. Dipl.-Ing. Dr. Ernst Primas
Kurzfassung/Abstract
Der Kataster bzw. Grundstücks- oder Liegenschaftskataster ist die flächendeckende Dokumentation sämtlicher Grundstücke eines Landes. In einem beschreibenden Teil (Grundstücksverzeichnis) und in Karten (Katastralmappe) werden die geometrische Lage, die Art der Benützungsart und die Größe beschrieben. Grundstücke werden in zwei Klassen unterteilt: 1. Grundstücke, die sich im rechtsverbindlichen Grenzkataster befinden 2. Grundstücke, die sich im Grundsteuerkataster befinden Mithilfe des in dieser Arbeit entwickelten Programmes, bestehend aus drei Teilen, werden Qualitätsparameter aus Shape- und Comma seperated Files berechnet, um eine genauere Klassifizierung der Grundstücke zu gewährleisten. Das Programm wird folgend unterteilt: 1. Erstellen einer räumlichen Beziehung zwischen Punkte-, Linien- und Polygonlayer mithilfe des Programmes ESRI ArcGIS Pro 2. Berechnung der Qualitätsparameter für Grenzpunkte und Grundstücke mit dem Programm Python Anaconda 3. Visualisierung der Qualitätsparameter mit dem Programm ESRI ArcGIS Pro Aus den berechneten Qualitätsparametern können alle Grundstücke bis auf ein paar Ausnahmen in folgende Klassen unterteilt werden: 1. Grenzpunkte eines Grundstücks nicht vermessen 2. Grenzpunkte eines Grundstücks nicht vermessen, mit Verbesserungspotential von lokalen Grenzpunkten und/oder eines noch nicht eingearbeiteten Geschäftsfalls 3. Grenzpunkte eines Grundstücks teilweise vermessen 4. Grenzpunkte eines Grundstücks teilweise vermessen, mit Verbesserungspotential von lokalen Grenzpunkten und/oder eines noch nicht eingearbeiteten Geschäftsfalls 5. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit keiner Geschäftsfallnummer 6. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit unterschiedlichen Geschäftsfallnummern 7. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit einer Geschäftsfallnummer 8. Grundstück im Grenzkataster
Der Kataster bzw. Grundstücks- oder Liegenschaftskataster ist die flächendeckende Dokumentation sämtlicher Grundstücke eines Landes. In einem beschreibenden Teil (Grundstücksverzeichnis) und in Karten (Katastralmappe) werden die geometrische Lage, die Art der Benützungsart und die Größe beschrieben. Grundstücke werden in zwei Klassen unterteilt: 1. Grundstücke, die sich im rechtsverbindlichen Grenzkataster befinden 2. Grundstücke, die sich im Grundsteuerkataster befinden Mithilfe des in dieser Arbeit entwickelten Programmes, bestehend aus drei Teilen, werden Qualitätsparameter aus Shape- und Comma seperated Files berechnet, um eine genauere Klassifizierung der Grundstücke zu gewährleisten. Das Programm wird folgend unterteilt: 1. Erstellen einer räumlichen Beziehung zwischen Punkte-, Linien- und Polygonlayer mithilfe des Programmes ESRI ArcGIS Pro 2. Berechnung der Qualitätsparameter für Grenzpunkte und Grundstücke mit dem Programm Python Anaconda 3. Visualisierung der Qualitätsparameter mit dem Programm ESRI ArcGIS Pro Aus den berechneten Qualitätsparametern können alle Grundstücke bis auf ein paar Ausnahmen in folgende Klassen unterteilt werden: 1. Grenzpunkte eines Grundstücks nicht vermessen 2. Grenzpunkte eines Grundstücks nicht vermessen, mit Verbesserungspotential von lokalen Grenzpunkten und/oder eines noch nicht eingearbeiteten Geschäftsfalls 3. Grenzpunkte eines Grundstücks teilweise vermessen 4. Grenzpunkte eines Grundstücks teilweise vermessen, mit Verbesserungspotential von lokalen Grenzpunkten und/oder eines noch nicht eingearbeiteten Geschäftsfalls 5. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit keiner Geschäftsfallnummer 6. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit unterschiedlichen Geschäftsfallnummern 7. Grenzpunkte eines Grundstücks zur Gänze vermessen, mit einer Geschäftsfallnummer 8. Grundstück im Grenzkataster
TLS target designs compared in terms of center estimation accuracy
Department für Geodäsie und Geoinformation, Forschungsgruppe Ingenieurgeodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr.-Ing. Hans-Berndt Neuner, Finn Linzer MSc
Kurzfassung/Abstract
Die großen Ansprüche des geodätischen Monitorings resultieren in ebenso große Ansprüche an die verwendeten Zielmarken. Diese werden unter anderem für die Transformation verschiedener Punktwolken aus unterschiedlichen Epochen in ein übergeordnetes Koordinatensystem verwendet, um diese Punktwolken dann vergleichen zu können. Janßen et. al. (2019), Kern et. al. (2010) und Eling (2019) haben bereits Vergleiche unterschiedlicher Zielmarkendesigns unternommen und durch die Ergebnisse eigene Designs entworfen. Mit diesen Arbeiten als Basis wurden vier Zielmarkendesigns für diese Arbeit ausgewählt (Schachbrett, BOTA-8, weißer Kreis und konzentrische Kreise). Ebenso wurden zwei verschiedene Instrumente verwendet, um herauszufinden, ob die Ergebnisse für unterschiedliche Scanner ähnlich sind (Leica MS60 und Riegl VZ 2000). Um die Ergebnisse miteinander vergleichen zu können wird ein übergeordnetes Koordinatensystem verwendet (Dallinger 2017). Die Transformation vom lokalen Scanner System ins übergeordnete Koordinatensystem erfolgt über eine Helmert Transformation. Zur Bestimmung der Sollkoordinaten der Zielmarkenzentren im übergeordneten Koordinatensystem wurde eine TMS-Messung (Winkel Messungen) mit der Leica MS60 durchgeführt. Die Zielmarkenzentren wurden im Anschluss anhand einer Netzausgleichung geschätzt. Dies führte zu maximalen Standardabweichungen von 0.5 Millimeter. Zwei Algorithmen wurden für die Bestimmung des Zielmarkenzentrums verwendet. Einerseits der Algorithmus von Janßen et. al. (2019) basierend auf Image-Matching (Schachbrett und BOTA-8) und andererseits der, in dieser Arbeit neu entwickelte, Algorithmus basierend auf Kantendetektion aus Intensitätsbildern und Kreisschätzungen (weißer Kreis und konzentrische Kreise). Im Zuge dieser Arbeit wurden zwei praktische Experimente mit beiden Instrumenten durchgeführt. Eines zur Bestimmung des Einflusses der Distanz zur Zielmarke und eines zur Bestimmung des Einflusses des Einfallswinkels. Das Distanzexperiment zeigte für die MS60 einen leicht quadratisch steigenden Verlauf der Abweichungen zu den Sollwerten mit wachsender Distanz für alle Zielmarken mit Ausnahme der konzentrischen Kreise. Diese Zielmarke zeigt einen leicht steigenden linearen Verlauf und lieferte somit die besten Ergebnisse für diesen Versuch. Für den Riegl VZ 2000 zeigten alle Zielmarken in etwa dieselben Ergebnisse. Allerdings liefern schwarz-weiße Zielmarken deutlich bessere Ergebnisse als grau-weiße Zielmarken. Bei der MS60 spielt diese Wahl keine Rolle. Zusätzlich wurde die Präzision aller Zielmarken für eine Distanz von 15 Meter ermittelt. Diese liegt für die MS60 bei allen unter 0.5 Millimeter. Der Riegl Scanner erreicht diesen Wert nur für das BOTA-8 Design. Das Experiment bezüglich des Einfallswinkels zeigt ähnliche Ergebnisse für alle Zielmarken beider Instrumente. Die einzige Ausnahme dazu ist nur der weiße Kreis, welcher für den Riegl VZ 2000 bei höheren Einfallswinkeln Punktlagefehler größer als 10 Millimetern erreicht. Aus diesen beiden Experimenten schnitt für die MS60 das Design der konzentrischen Kreise und für den Riegl Scanner das BOTA-8 Design am besten ab. Allerdings kann keine generelle Aussage über das optimale Zielmarkendesign getroffen werden. Ein Grund dafür ist, dass die beiden verwendeten Instrumente bereits zu unterschiedlichen Ergebnissen führten.
Die großen Ansprüche des geodätischen Monitorings resultieren in ebenso große Ansprüche an die verwendeten Zielmarken. Diese werden unter anderem für die Transformation verschiedener Punktwolken aus unterschiedlichen Epochen in ein übergeordnetes Koordinatensystem verwendet, um diese Punktwolken dann vergleichen zu können. Janßen et. al. (2019), Kern et. al. (2010) und Eling (2019) haben bereits Vergleiche unterschiedlicher Zielmarkendesigns unternommen und durch die Ergebnisse eigene Designs entworfen. Mit diesen Arbeiten als Basis wurden vier Zielmarkendesigns für diese Arbeit ausgewählt (Schachbrett, BOTA-8, weißer Kreis und konzentrische Kreise). Ebenso wurden zwei verschiedene Instrumente verwendet, um herauszufinden, ob die Ergebnisse für unterschiedliche Scanner ähnlich sind (Leica MS60 und Riegl VZ 2000). Um die Ergebnisse miteinander vergleichen zu können wird ein übergeordnetes Koordinatensystem verwendet (Dallinger 2017). Die Transformation vom lokalen Scanner System ins übergeordnete Koordinatensystem erfolgt über eine Helmert Transformation. Zur Bestimmung der Sollkoordinaten der Zielmarkenzentren im übergeordneten Koordinatensystem wurde eine TMS-Messung (Winkel Messungen) mit der Leica MS60 durchgeführt. Die Zielmarkenzentren wurden im Anschluss anhand einer Netzausgleichung geschätzt. Dies führte zu maximalen Standardabweichungen von 0.5 Millimeter. Zwei Algorithmen wurden für die Bestimmung des Zielmarkenzentrums verwendet. Einerseits der Algorithmus von Janßen et. al. (2019) basierend auf Image-Matching (Schachbrett und BOTA-8) und andererseits der, in dieser Arbeit neu entwickelte, Algorithmus basierend auf Kantendetektion aus Intensitätsbildern und Kreisschätzungen (weißer Kreis und konzentrische Kreise). Im Zuge dieser Arbeit wurden zwei praktische Experimente mit beiden Instrumenten durchgeführt. Eines zur Bestimmung des Einflusses der Distanz zur Zielmarke und eines zur Bestimmung des Einflusses des Einfallswinkels. Das Distanzexperiment zeigte für die MS60 einen leicht quadratisch steigenden Verlauf der Abweichungen zu den Sollwerten mit wachsender Distanz für alle Zielmarken mit Ausnahme der konzentrischen Kreise. Diese Zielmarke zeigt einen leicht steigenden linearen Verlauf und lieferte somit die besten Ergebnisse für diesen Versuch. Für den Riegl VZ 2000 zeigten alle Zielmarken in etwa dieselben Ergebnisse. Allerdings liefern schwarz-weiße Zielmarken deutlich bessere Ergebnisse als grau-weiße Zielmarken. Bei der MS60 spielt diese Wahl keine Rolle. Zusätzlich wurde die Präzision aller Zielmarken für eine Distanz von 15 Meter ermittelt. Diese liegt für die MS60 bei allen unter 0.5 Millimeter. Der Riegl Scanner erreicht diesen Wert nur für das BOTA-8 Design. Das Experiment bezüglich des Einfallswinkels zeigt ähnliche Ergebnisse für alle Zielmarken beider Instrumente. Die einzige Ausnahme dazu ist nur der weiße Kreis, welcher für den Riegl VZ 2000 bei höheren Einfallswinkeln Punktlagefehler größer als 10 Millimetern erreicht. Aus diesen beiden Experimenten schnitt für die MS60 das Design der konzentrischen Kreise und für den Riegl Scanner das BOTA-8 Design am besten ab. Allerdings kann keine generelle Aussage über das optimale Zielmarkendesign getroffen werden. Ein Grund dafür ist, dass die beiden verwendeten Instrumente bereits zu unterschiedlichen Ergebnissen führten.
Lokale VLBI Messungen an der Station Wettzell
Department für Geodäsie und Geoinformation, Forschungsgruppe Höhere Geodäsie, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Johannes Böhm
Kurzfassung/Abstract
Bei der Very Long Baseline Interferometry (VLBI) beobachten global verteilte Stationen extragalaktische Radioquellen. Die primäre Beobachtungsgröße ist die Differenz in den Ankunftszeiten der von den Radioquellen ausgesandten Strahlung. Die VLBI ist das einzige moderne geodätische Weltraumverfahren, mit dem alle fünf Erdorientierungsparameter (EOP) bestimmt werden können. In den letzten Jahren wurden vermehrt VLBI Antennen der neuesten Generation (VGOS) errichtet, welche nun gemeinsam mit den älteren Antennen (Legacy) beobachten. Im Zuge dieser Arbeit wurde die Verknüpfung dieser beiden Systeme am geodätischen Observatorium Wettzell in Deutschland untersucht und mit terrestrischen Tachymetermessungen verglichen. Durch immerzu steigende Genauigkeitsanforderungen ist die bestmögliche Verknüpfung dieser beiden Systeme unerlässlich. Für die Auswertung wurden insgesamt 27 lokale Sessions an der Station Wettzell im Zeitraum von 2014 bis 2020 untersucht. Beobachtet wurde jeweils von den drei in Wettzell vorhandenen VLBI Antennen, bei denen es sich um eine Legacy und zwei baugleiche VGOS Antennen handelt. Die Messungen wurden jeweils in Bezug auf ihre lokale Ost-, Nord- und Höhenkomponente untersucht. Beim Vergleich der Tachymetermessungen mit jenen der VLBI fällt auf, dass es vor allem in der Höhenkomponente eine Differenz von etwa 5 Millimetern gibt. Dadurch, dass die älteren und größeren Legacy Antennen bekanntermaßen unter Einflüssen der Gravitation stärker deformiert werden als VGOS Antennen, liegt es nahe, dass diese Differenz aus der Nichtberücksichtigung dieser Effekte resultiert. Je nach Verkippung (Elevation) der Antennen wirkt der Einfluss der gravitativen Deformation dabei unterschiedlich. Da es für die Legacy Antenne in Wettzell zum Zeitpunkt der Auswertung noch kein Modell zur Korrektur dieses Einflusses gab, wurde das Modell der VLBI Antenne in Onsala verwendet, welches bauähnlich zu jenem in Wettzell ist. Nach Verwendung des Modells konnte die Differenz der VLBI Messungen zu den terrestrischen Messungen deutlich verringert werden. Im Mittel beträgt diese in der Höhenkomponente nach der Korrektur der gravitativen Deformation nur noch -0.8mm. Die Ost- und Nordkomponente sind von den Einflüssen der gravitativen Deformation kaum betroffen, die Mittelwerte vor und nach Verwendung des Modells sind ident (0.1mm und -0.2mm).
Bei der Very Long Baseline Interferometry (VLBI) beobachten global verteilte Stationen extragalaktische Radioquellen. Die primäre Beobachtungsgröße ist die Differenz in den Ankunftszeiten der von den Radioquellen ausgesandten Strahlung. Die VLBI ist das einzige moderne geodätische Weltraumverfahren, mit dem alle fünf Erdorientierungsparameter (EOP) bestimmt werden können. In den letzten Jahren wurden vermehrt VLBI Antennen der neuesten Generation (VGOS) errichtet, welche nun gemeinsam mit den älteren Antennen (Legacy) beobachten. Im Zuge dieser Arbeit wurde die Verknüpfung dieser beiden Systeme am geodätischen Observatorium Wettzell in Deutschland untersucht und mit terrestrischen Tachymetermessungen verglichen. Durch immerzu steigende Genauigkeitsanforderungen ist die bestmögliche Verknüpfung dieser beiden Systeme unerlässlich. Für die Auswertung wurden insgesamt 27 lokale Sessions an der Station Wettzell im Zeitraum von 2014 bis 2020 untersucht. Beobachtet wurde jeweils von den drei in Wettzell vorhandenen VLBI Antennen, bei denen es sich um eine Legacy und zwei baugleiche VGOS Antennen handelt. Die Messungen wurden jeweils in Bezug auf ihre lokale Ost-, Nord- und Höhenkomponente untersucht. Beim Vergleich der Tachymetermessungen mit jenen der VLBI fällt auf, dass es vor allem in der Höhenkomponente eine Differenz von etwa 5 Millimetern gibt. Dadurch, dass die älteren und größeren Legacy Antennen bekanntermaßen unter Einflüssen der Gravitation stärker deformiert werden als VGOS Antennen, liegt es nahe, dass diese Differenz aus der Nichtberücksichtigung dieser Effekte resultiert. Je nach Verkippung (Elevation) der Antennen wirkt der Einfluss der gravitativen Deformation dabei unterschiedlich. Da es für die Legacy Antenne in Wettzell zum Zeitpunkt der Auswertung noch kein Modell zur Korrektur dieses Einflusses gab, wurde das Modell der VLBI Antenne in Onsala verwendet, welches bauähnlich zu jenem in Wettzell ist. Nach Verwendung des Modells konnte die Differenz der VLBI Messungen zu den terrestrischen Messungen deutlich verringert werden. Im Mittel beträgt diese in der Höhenkomponente nach der Korrektur der gravitativen Deformation nur noch -0.8mm. Die Ost- und Nordkomponente sind von den Einflüssen der gravitativen Deformation kaum betroffen, die Mittelwerte vor und nach Verwendung des Modells sind ident (0.1mm und -0.2mm).
Impact of Urban Area Growth on ASCAT Backscatter Time Series as Depicted by Sentinel-1
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dipl.-Ing. Dr. Wolfgang Wagner, Dipl.-Ing. Claudio Navacchi, Dipl.-Ing. Sebastian Hahn
Kurzfassung/Abstract
Urbane Regionen haben aufgrund ihrer physikalischen Eigenschaften signifikanten Einfluss auf Fernerkundungsdaten. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung des Rückstreuverhaltens in urbanen Gebieten und dessen Auswirkungen auf Datensätze des auf den MetOp Satelliten montierten Advanced Scatterometer Sensors mithilfe von hochauflösenden Daten des C-SAR Sensorsystems der Sentinel-1 Satellitenmission. Hierfür wurden in fünf unterschiedlichen Regionen die Datensätze beider Sensorsysteme zeitlich und räumlich angeglichen und ihre Korrelation berechnet. Drei der fünf Sentinel-1 Datensätze eigneten sich für tiefergehende Experimente, die die Eingrenzung vieler verschiedener Einflüsse auf das Rückstreuverhalten inklusive mehrerer Arten von urbanem Wachstum ermöglichten. Die durchgeführten Experimente und die benutzten Algorithmen ermöglichten keine exakte Quantifizierung des Einflusses von urbanem Wachstum auf die Daten, jedoch war es möglich eine Ausgangsbasis für zukünftige Weiterentwicklungen zu erstellen.
Urbane Regionen haben aufgrund ihrer physikalischen Eigenschaften signifikanten Einfluss auf Fernerkundungsdaten. Die vorliegende Arbeit beschäftigt sich mit der Untersuchung des Rückstreuverhaltens in urbanen Gebieten und dessen Auswirkungen auf Datensätze des auf den MetOp Satelliten montierten Advanced Scatterometer Sensors mithilfe von hochauflösenden Daten des C-SAR Sensorsystems der Sentinel-1 Satellitenmission. Hierfür wurden in fünf unterschiedlichen Regionen die Datensätze beider Sensorsysteme zeitlich und räumlich angeglichen und ihre Korrelation berechnet. Drei der fünf Sentinel-1 Datensätze eigneten sich für tiefergehende Experimente, die die Eingrenzung vieler verschiedener Einflüsse auf das Rückstreuverhalten inklusive mehrerer Arten von urbanem Wachstum ermöglichten. Die durchgeführten Experimente und die benutzten Algorithmen ermöglichten keine exakte Quantifizierung des Einflusses von urbanem Wachstum auf die Daten, jedoch war es möglich eine Ausgangsbasis für zukünftige Weiterentwicklungen zu erstellen.
VODCA2AGB - A novel approach for the estimation of global AGB stocks based on vegetation optical depth data and random forest regression
Department für Geodäsie und Geoinformation, Forschungsgruppe Fernerkundung, Technische Universität Wien, 2023
Betreuer: Univ.-Prof. Dr. Wouter Arnoud Dorigo MSc, Dipl.-Ing. Ruxandra-Maria Zotta
Kurzfassung/Abstract
Aboveground biomass (AGB) plays an important role in the Earth’s carbon cycle, both as a source and sink of carbon, and therefore its monitoring is critical in the fight against climate change. In the past, several AGB maps on global and regional scales have been created to provide an estimate of stocks at a certain point in time. However, most of these maps are static and thus do not allow for monitoring the change in biomass. As an alternative to current approaches, vegetation optical depth (VOD) could be used to monitor global AGB dynamically. VOD is a measure of the attenuation of microwave signals traveling through the vegetation canopy. It has a linear relationship with vegetation water content, which in turn is related to biomass and vegetation water status. Previous studies have already proven the feasibility of AGB estimation based on L-band VOD (L-VOD) using nonlinear univariate parametric regression approaches. However, due to the high complexity of the global AGB-VOD relationship, this approach might be better suited for regional AGB estimation. To overcome this problem, a novel approach for global AGB estimation relying on multivariate non-parametric random forest regression (RF) was developed and tested. For this purpose, RF models were trained on an annual reference AGB product, and predictions were compared with a hold-out test set as well as an independent AGB map. The RF models rely on a set of different feature combinations, including data from VOD, leaf area index (LAI), land cover (LC) and sun induced fluorescence (SIF). The prediction accuracy was assessed via R2 scores, with results ranging from 0.79 to 0.96 %. The largest increase in model performance was observed when land cover information was used in combination with VOD. Prediction accuracy was the lowest over dense and high vegetation, such as broadleaf evergreen forests, and conversely, the best results were achieved for sparse and low vegetation, like crops and shrubs, which is in line with previous studies. Overall, the thesis showed promising results for the future application of AGB estimation based on VOD and random forest regression.
Aboveground biomass (AGB) plays an important role in the Earth’s carbon cycle, both as a source and sink of carbon, and therefore its monitoring is critical in the fight against climate change. In the past, several AGB maps on global and regional scales have been created to provide an estimate of stocks at a certain point in time. However, most of these maps are static and thus do not allow for monitoring the change in biomass. As an alternative to current approaches, vegetation optical depth (VOD) could be used to monitor global AGB dynamically. VOD is a measure of the attenuation of microwave signals traveling through the vegetation canopy. It has a linear relationship with vegetation water content, which in turn is related to biomass and vegetation water status. Previous studies have already proven the feasibility of AGB estimation based on L-band VOD (L-VOD) using nonlinear univariate parametric regression approaches. However, due to the high complexity of the global AGB-VOD relationship, this approach might be better suited for regional AGB estimation. To overcome this problem, a novel approach for global AGB estimation relying on multivariate non-parametric random forest regression (RF) was developed and tested. For this purpose, RF models were trained on an annual reference AGB product, and predictions were compared with a hold-out test set as well as an independent AGB map. The RF models rely on a set of different feature combinations, including data from VOD, leaf area index (LAI), land cover (LC) and sun induced fluorescence (SIF). The prediction accuracy was assessed via R2 scores, with results ranging from 0.79 to 0.96 %. The largest increase in model performance was observed when land cover information was used in combination with VOD. Prediction accuracy was the lowest over dense and high vegetation, such as broadleaf evergreen forests, and conversely, the best results were achieved for sparse and low vegetation, like crops and shrubs, which is in line with previous studies. Overall, the thesis showed promising results for the future application of AGB estimation based on VOD and random forest regression.
Statistical landslide susceptibility modelling - Chances, challenges and pitfalls of data homogenisation
Institut für Geographie und Raumforschung, Technische Universität Graz, 2023
Betreuer: Mag. Dr. Christian Bauer
Kurzfassung/Abstract
Angesichts der merkbaren Häufung von Extremwetterereignissen in den letzten Jahren gewinnt die Modellierung von Naturgefahren immer mehr an Bedeutung. Ein geomorphologischer Prozess, der besonders durch Starkniederschlagsereignisse begünstigt wird, sind Hangrutschungen. Da diese Prozesse eine Gefahr für den Menschen darstellen können, nimmt die Bedeutung einer zuverlässigen Modellierung der Anfälligkeit für Hangrutschungen stetig zu. In dieser Arbeit wird eine statistische Modellierung der Anfälligkeit für Hangrutschungen mittels logistischer Regression durchgeführt, wozu sowohl heterogene Rutschungsinventare als auch eine Vielzahl verschiedener erklärender Parameterdatensätze verwendet werden. Aufgrund der Heterogenität aller Eingabedatensätze liegt der Schwerpunkt hierbei auf der Aufbereitung und Homogenisierung der Daten, um eine stichhaltige Modellierung durchführen zu können. Ein weiterer Schwerpunkt liegt in der Erstellung gewichteter repräsentativer Stichproben, mit dem Ziel, die homogenisierten Daten in einen Trainings- und einen Validierungsdatensatz aufzuteilen, um eine Verifizierung der Modellierungsergebnisse zu ermöglichen. Die daraus resultierenden Rutschungsanfälligkeiten können in Anbetracht der für die Modellierung verwendeten Datensätze als plausibel angesehen werden, wobei Ungenauigkeiten in den Eingabedatensätzen die Seriosität der Ergebnisse beeinträchtigen. Problemfelder ergeben sich aus unterschiedlichen Aufnahmezeitpunkten der Eingangsdaten sowie der Heterogenität der verwendeten Rutschungsinventare, wodurch sich mehr Herausforderungen als Chancen ergeben haben. Zusammenfassend kann festgehalten werden, dass konsistente Eingangsdaten für ein aussagekräftiges Ergebnis einer statistischen Modellierung der Anfälligkeit für Hangrutschungen unerlässlich sind. Ein flächendeckendes, ereignisbezogenes Rutschungsinventar mit ausreichenden Zusatzinformationen über Art und Zeitpunkt der Prozesse, sowie zeitlich abgestimmte Parameterdatensätze sind von entscheidender Bedeutung. Wenngleich dies im Rahmen dieser Arbeit nicht realisiert werden konnte, wird es als wesentlicher Faktor für eine zuverlässige Modellierung der Rutschungsanfälligkeit betrachtet.
Angesichts der merkbaren Häufung von Extremwetterereignissen in den letzten Jahren gewinnt die Modellierung von Naturgefahren immer mehr an Bedeutung. Ein geomorphologischer Prozess, der besonders durch Starkniederschlagsereignisse begünstigt wird, sind Hangrutschungen. Da diese Prozesse eine Gefahr für den Menschen darstellen können, nimmt die Bedeutung einer zuverlässigen Modellierung der Anfälligkeit für Hangrutschungen stetig zu. In dieser Arbeit wird eine statistische Modellierung der Anfälligkeit für Hangrutschungen mittels logistischer Regression durchgeführt, wozu sowohl heterogene Rutschungsinventare als auch eine Vielzahl verschiedener erklärender Parameterdatensätze verwendet werden. Aufgrund der Heterogenität aller Eingabedatensätze liegt der Schwerpunkt hierbei auf der Aufbereitung und Homogenisierung der Daten, um eine stichhaltige Modellierung durchführen zu können. Ein weiterer Schwerpunkt liegt in der Erstellung gewichteter repräsentativer Stichproben, mit dem Ziel, die homogenisierten Daten in einen Trainings- und einen Validierungsdatensatz aufzuteilen, um eine Verifizierung der Modellierungsergebnisse zu ermöglichen. Die daraus resultierenden Rutschungsanfälligkeiten können in Anbetracht der für die Modellierung verwendeten Datensätze als plausibel angesehen werden, wobei Ungenauigkeiten in den Eingabedatensätzen die Seriosität der Ergebnisse beeinträchtigen. Problemfelder ergeben sich aus unterschiedlichen Aufnahmezeitpunkten der Eingangsdaten sowie der Heterogenität der verwendeten Rutschungsinventare, wodurch sich mehr Herausforderungen als Chancen ergeben haben. Zusammenfassend kann festgehalten werden, dass konsistente Eingangsdaten für ein aussagekräftiges Ergebnis einer statistischen Modellierung der Anfälligkeit für Hangrutschungen unerlässlich sind. Ein flächendeckendes, ereignisbezogenes Rutschungsinventar mit ausreichenden Zusatzinformationen über Art und Zeitpunkt der Prozesse, sowie zeitlich abgestimmte Parameterdatensätze sind von entscheidender Bedeutung. Wenngleich dies im Rahmen dieser Arbeit nicht realisiert werden konnte, wird es als wesentlicher Faktor für eine zuverlässige Modellierung der Rutschungsanfälligkeit betrachtet.
Spatial optimization in the context of antenna positioning for cattle tracking in the Austrian alps
Institut für Geodäsie, Arbeitsgruppe Geoinformation, Technische Universität Graz, 2023
Betreuer: Ass.Prof. Dipl.-Ing. (FH) Dr. Johannes Scholz
Kurzfassung/Abstract
Diese Masterarbeit kommt aus dem Bereich der Geoinformatik. Die behandelten Forschungsfragen sind im Unterbereich der räumlichen Analyse anzusiedeln. Genauer handelt es sich um Standortprobleme. Methodiken aus dem Bereich der räumlichen Analyse versuchen Probleme durch die Verwendung von Informatik zu lösen. Das Ziel dieser Arbeit ist die Entwicklung eines räumlichen Optimierungsansatzes zur Platzierung von Antennen in den österreichischen Alpen. Der Ansatz basiert auf vorhandenen Konzepten aus dem Bereich der Geoinformatik und wird an zwei Untersuchungsgebieten getestet. Außerdem werden vier mögliche Problemstellen des Ansatzes untersucht, um seine Stärken und Schwächen zu identifizieren. Diese Masterarbeit behandelt räumliche Optimierung im Kontext der Beobachtung von Vieh in den österreichischen Alpen. Diese alpinen Landschaften zeichnen sich durch eine hohe Biodiversität aus. Alpine Regionen erfahren verschiedenste Verwendungszwecke durch den Tourismus und die Landwirtschaft. Im Sommer werden Almflächen zum Grasen von Vieh (i.e. Kühe, Schafe etc.) genutzt. Es ist kein Novum, dass es zu Interessenskonflikten (z.B. Kuhattacken auf Touristen) zwischen verschiedenen Nutzergruppen dieser alpinen Regionen kommt. Hier könnte das Echtzeitmonitoren des Viehs zur Lösung der Konflikte beitragen. Das Start-up ViehFinder hat ein System zum monitoren von Vieh mittels Long Range Wide Area Network entwickelt. Das entwickelte räumliche Optimierungsmodel ist ein Maximal Covering Location Problem. Dieses Model berücksichtigt bei der Auswahl der optimalen Antennenstandorte das limitierte Budget. Im Zuge der Modelentwicklung wurden Einschränkungen festgelegt, die die Anzahl der möglichen Antennenstandorte und das Abdeckungsgebiet reduzieren. Der entwickelte räumliche Optimierungsprozess nutzt GIS-basierte Techniken zur Standortauswahl, Resampling zur Reduzierung der Anzahl der Standorte, und eine Sichtbarkeitsanalyse zur Bestimmung der Servicebereiche der Antennen. Integer Linear Programming (ILP) wird genutzt, um das räumliche Optimierungsproblem zu lösen. Diese Arbeit evaluiert den Optimierungsprozess anhand von zwei Untersuchungsgebieten in den österreichischen Alpen. Außerdem wird das Verhalten und der Rechenaufwand des Algorithmus anhand verschieden großer Probleminstanzen getestet. Diese Masterarbeit zeigt die Grenzen von ILP für die räumliche Optimierung auf. Des Weiteren wird die Eignung des präsentierten Ansatzes unter Beweis gestellt.
Diese Masterarbeit kommt aus dem Bereich der Geoinformatik. Die behandelten Forschungsfragen sind im Unterbereich der räumlichen Analyse anzusiedeln. Genauer handelt es sich um Standortprobleme. Methodiken aus dem Bereich der räumlichen Analyse versuchen Probleme durch die Verwendung von Informatik zu lösen. Das Ziel dieser Arbeit ist die Entwicklung eines räumlichen Optimierungsansatzes zur Platzierung von Antennen in den österreichischen Alpen. Der Ansatz basiert auf vorhandenen Konzepten aus dem Bereich der Geoinformatik und wird an zwei Untersuchungsgebieten getestet. Außerdem werden vier mögliche Problemstellen des Ansatzes untersucht, um seine Stärken und Schwächen zu identifizieren. Diese Masterarbeit behandelt räumliche Optimierung im Kontext der Beobachtung von Vieh in den österreichischen Alpen. Diese alpinen Landschaften zeichnen sich durch eine hohe Biodiversität aus. Alpine Regionen erfahren verschiedenste Verwendungszwecke durch den Tourismus und die Landwirtschaft. Im Sommer werden Almflächen zum Grasen von Vieh (i.e. Kühe, Schafe etc.) genutzt. Es ist kein Novum, dass es zu Interessenskonflikten (z.B. Kuhattacken auf Touristen) zwischen verschiedenen Nutzergruppen dieser alpinen Regionen kommt. Hier könnte das Echtzeitmonitoren des Viehs zur Lösung der Konflikte beitragen. Das Start-up ViehFinder hat ein System zum monitoren von Vieh mittels Long Range Wide Area Network entwickelt. Das entwickelte räumliche Optimierungsmodel ist ein Maximal Covering Location Problem. Dieses Model berücksichtigt bei der Auswahl der optimalen Antennenstandorte das limitierte Budget. Im Zuge der Modelentwicklung wurden Einschränkungen festgelegt, die die Anzahl der möglichen Antennenstandorte und das Abdeckungsgebiet reduzieren. Der entwickelte räumliche Optimierungsprozess nutzt GIS-basierte Techniken zur Standortauswahl, Resampling zur Reduzierung der Anzahl der Standorte, und eine Sichtbarkeitsanalyse zur Bestimmung der Servicebereiche der Antennen. Integer Linear Programming (ILP) wird genutzt, um das räumliche Optimierungsproblem zu lösen. Diese Arbeit evaluiert den Optimierungsprozess anhand von zwei Untersuchungsgebieten in den österreichischen Alpen. Außerdem wird das Verhalten und der Rechenaufwand des Algorithmus anhand verschieden großer Probleminstanzen getestet. Diese Masterarbeit zeigt die Grenzen von ILP für die räumliche Optimierung auf. Des Weiteren wird die Eignung des präsentierten Ansatzes unter Beweis gestellt.