- Home  »
- VGI - Die Zeitschrift  »
- Autor
VGI - Autor
Philipp Glira
Wir haben 1 Artikel von und mit Philipp Glira gefunden.
Direkte Georeferenzierung von Bildern eines unbemannten Luftfahrzeuges mit LowCost-Sensoren
Kurzfassung
Unbemannte Luftfahrzeuge können mit einer Vielzahl von unterschiedlichen Bordsensoren ausgestattet werden.Dazu zählen typischerweise ein GNSS-Empfänger, eine inertiale Messeinheit, ein Magnetometer und ein Luftdrucksensor. Diese Sensoren dienen dazu, den Piloten bei seiner Flugmission zu unterstützen und ermöglichen die Durchführung von autonomen Flügen. In diesem Beitrag wird gezeigt, dass diese Sensoren außerdem dazu verwendet werden können, um Bilder einer Kamera direkt zu georeferenzieren. Darunter versteht man die direkte Bestimmung (d.h. ohne Nutzung des Bildinhaltes) der Position (drei Koordinaten) und der Orientierung (drei Drehwinkel) der Kamera zum Aufnahmezeitpunkt der Bilder. Die Einführung dieser Beobachtungen in die Bündelblockausgleichung (integrierte Sensororientierung) vermeidet weitgehend Deformationen des Bildblockes, wie sie bei der Nutzung von nur wenigen Passpunkten auftreten können. Als Flugplattform wurde ein Multikopter, basierend auf der MikroKopter-Plattform, eingesetzt. Die Flugplattform ist als offenes System konzipiert und erlaubte somit Modifikationen, welche die Aufzeichnung der Sensorrohdaten und deren Synchronisation mit der Kamera möglich machten. Normalerweise werden für die direkte Georeferenzierung von Luftbildern nur der GNSS-Empfänger und die Sensoren der inertialen Messeinheit verwendet. Die in unbemannten Luftfahrzeugen typischerweise dafür eingesetzten MEMS-Sensoren zeichnen sich zwar durch ein geringes Gewicht aus, liefern aber nur eine geringe Messgenauigkeit. Daher ist die Erweiterung von GNSS und inertialer Messeinheit mit einem Magnetometer und einem Luftdrucksensor notwendig. Durch die Integration aller Sensoren zu einem Gesamtsystem kann damit die Genauigkeit der Positions- und Orientierungsbestimmung entscheidend verbessert werden. Die Evaluierung der vorgeschlagenen Methode zeigt, dass die Position der Bilder mit einer Präzision von ca. 0.5m (Lage) bzw. 1.0m (Höhe) bestimmt werden kann. Die Orientierungswinkel können mit einer Präzision von ca.1° (Roll und Nick) und 2° (Gier) bestimmt werden. Es kamen dazu ausschließlich die zur Flugsteuerung bereits vorhandenen Bordsensoren zum Einsatz.
Abstract
Unmanned aerial vehicles (UAV) can be equipped with a large variety of different on-board sensors.The typical UAV setup consists of a GNSS antenna with a receiver, an inertial measurement unit (IMU), a magnetometer and an air pressure sensor.These sensors allow to assist the pilot on the ground and to carry out autonomous flights.This article demonstrates that these sensors can be additionally used to directly georeference the imagery taken from the UAV platform.This results in the estimation of the position (three coordinates) and orientation (three rotation angles) of the images without the usage of the image content.The integration of these observations into a bundle block adjustment (integrated sensor orientation) avoids a deformation of the image block, as it can occur if only few control points were used. Within the practical examples, a multi-rotor system based on the MikroKopter platform was utilized.The open source character of the project allowed some minor code modification that allowed recording the raw sensor data and made the synchronisation with the camera trigger signal possible. The direct georeferencing of aerial images is typically just based on GNSS and IMU observations. Due to the low measurement quality of the utilized MEMS sensors, the additional usage of a magnetometer and an air pressure sensor is essential to support the GNSS and IMU observations. By the integration of the observations of all sensors a significant increase of accuracy and reliability of the determined positions and orientations can be achieved. The evaluation of the proposed method shows that the estimated position of the image can be determined with a precession of approx. 0.5 m (planar) and 1 m (height).The rotation angles can be determined with a precision of approx. 1° (roll and nick) and 2° (yaw).The direct georeferencing of the images of this practical test is just based on the sensor equipment that is already available on-board of the MikroKopter platform.
Unbemannte Luftfahrzeuge können mit einer Vielzahl von unterschiedlichen Bordsensoren ausgestattet werden.Dazu zählen typischerweise ein GNSS-Empfänger, eine inertiale Messeinheit, ein Magnetometer und ein Luftdrucksensor. Diese Sensoren dienen dazu, den Piloten bei seiner Flugmission zu unterstützen und ermöglichen die Durchführung von autonomen Flügen. In diesem Beitrag wird gezeigt, dass diese Sensoren außerdem dazu verwendet werden können, um Bilder einer Kamera direkt zu georeferenzieren. Darunter versteht man die direkte Bestimmung (d.h. ohne Nutzung des Bildinhaltes) der Position (drei Koordinaten) und der Orientierung (drei Drehwinkel) der Kamera zum Aufnahmezeitpunkt der Bilder. Die Einführung dieser Beobachtungen in die Bündelblockausgleichung (integrierte Sensororientierung) vermeidet weitgehend Deformationen des Bildblockes, wie sie bei der Nutzung von nur wenigen Passpunkten auftreten können. Als Flugplattform wurde ein Multikopter, basierend auf der MikroKopter-Plattform, eingesetzt. Die Flugplattform ist als offenes System konzipiert und erlaubte somit Modifikationen, welche die Aufzeichnung der Sensorrohdaten und deren Synchronisation mit der Kamera möglich machten. Normalerweise werden für die direkte Georeferenzierung von Luftbildern nur der GNSS-Empfänger und die Sensoren der inertialen Messeinheit verwendet. Die in unbemannten Luftfahrzeugen typischerweise dafür eingesetzten MEMS-Sensoren zeichnen sich zwar durch ein geringes Gewicht aus, liefern aber nur eine geringe Messgenauigkeit. Daher ist die Erweiterung von GNSS und inertialer Messeinheit mit einem Magnetometer und einem Luftdrucksensor notwendig. Durch die Integration aller Sensoren zu einem Gesamtsystem kann damit die Genauigkeit der Positions- und Orientierungsbestimmung entscheidend verbessert werden. Die Evaluierung der vorgeschlagenen Methode zeigt, dass die Position der Bilder mit einer Präzision von ca. 0.5m (Lage) bzw. 1.0m (Höhe) bestimmt werden kann. Die Orientierungswinkel können mit einer Präzision von ca.1° (Roll und Nick) und 2° (Gier) bestimmt werden. Es kamen dazu ausschließlich die zur Flugsteuerung bereits vorhandenen Bordsensoren zum Einsatz.
Abstract
Unmanned aerial vehicles (UAV) can be equipped with a large variety of different on-board sensors.The typical UAV setup consists of a GNSS antenna with a receiver, an inertial measurement unit (IMU), a magnetometer and an air pressure sensor.These sensors allow to assist the pilot on the ground and to carry out autonomous flights.This article demonstrates that these sensors can be additionally used to directly georeference the imagery taken from the UAV platform.This results in the estimation of the position (three coordinates) and orientation (three rotation angles) of the images without the usage of the image content.The integration of these observations into a bundle block adjustment (integrated sensor orientation) avoids a deformation of the image block, as it can occur if only few control points were used. Within the practical examples, a multi-rotor system based on the MikroKopter platform was utilized.The open source character of the project allowed some minor code modification that allowed recording the raw sensor data and made the synchronisation with the camera trigger signal possible. The direct georeferencing of aerial images is typically just based on GNSS and IMU observations. Due to the low measurement quality of the utilized MEMS sensors, the additional usage of a magnetometer and an air pressure sensor is essential to support the GNSS and IMU observations. By the integration of the observations of all sensors a significant increase of accuracy and reliability of the determined positions and orientations can be achieved. The evaluation of the proposed method shows that the estimated position of the image can be determined with a precession of approx. 0.5 m (planar) and 1 m (height).The rotation angles can be determined with a precision of approx. 1° (roll and nick) and 2° (yaw).The direct georeferencing of the images of this practical test is just based on the sensor equipment that is already available on-board of the MikroKopter platform.
PDF-Download
VGI_201307_Glira.pdf
VGI_201307_Glira.pdf