- Home  »
- VGI - Die Zeitschrift  »
- Keyword
VGI - Autor
imu
Wir haben 5 Artikel über imu gefunden.
Increasing Localization Robustness in a LiDAR-focused SLAM with a combined IMU and wheel odometry model
Kurzfassung
Präzise Positionierung und Kartenerstellung sind Schlüsseltechnologien für autonome Roboter. Die meisten autonomen und halbautonomen Systeme verwenden ein LiDAR-basiertes Simultaneous Localization and Mapping (SLAM)-System in Kombination mit MEMS inertialen Messeinheiten (IMU). Wenn LiDAR ausfällt und nur mehr IMU-Daten zur Berechnung des Zustandsvektors des Roboters herangezogen werden, werden Messfehler akkumuliert und die Position des Roboters driftet weg. Nach einigen Sekunden ohne LiDAR-Daten sind LiDAR-inertiale SLAM-Systeme nicht mehr in der Lage, den Scan nach dem Ausfall in der bereits erstellten Karte zu registrieren. In diesem Beitrag wird ein neuartiger Ansatz zur Fusionierung von LiDAR, Inertial- und Rad-Odometrie in einem Faktorgraphen für SLAM vorgestellt. Ein kombiniertes IMU- und Rad-Odometriemodell wird als erste Schätzung für den LiDAR-Scanabgleich und zur Überbrückung von LiDAR-Ausfällen verwendet. Der Algorithmus wird für zwei verschiedene Robotermodelle validiert und getestet. Die Ergebnisse zeigen, dass mit dem neuen IMU- und Rad-Odometrie-Modell die Lokalisierungsgenauigkeit während LiDAR-Ausfällen verbessert wird. Nach 30 Sekunden ohne LiDAR-Daten können die LiDAR-Punktwolken nach dem Ausfall immer noch zur zuvor erstellten Karte registriert werden.
Abstract
Precise positioning and mapping are key technologies for autonomous robots. Most autonomous and semi-autonomous systems use a LiDAR-focused Simultaneous Localization and Mapping (SLAM) in combination with MEMS Inertial Measurement Units (IMU). When LiDAR fails and only IMU data are used to compute the state vector of the robot, errors accumulate. After a few seconds without LiDAR data, LiDAR-inertial SLAM systems can no longer register the scan after the outage to the already created map. This paper proposes a novel approach for fusing LiDAR, inertial, and wheel odometry in a factor graph for SLAM. A combined IMU and wheel odometry model is used as an initial guess for LiDAR scan matching and to bridge LiDAR outages. The algorithm is evaluated and tested for two different robot models. The results show that with the proposed IMU and wheel odometry model localization accuracy improves during LiDAR outages. After 30 seconds without LiDAR data, the LiDAR point clouds after the outage can still be matched to the previously created map.
Präzise Positionierung und Kartenerstellung sind Schlüsseltechnologien für autonome Roboter. Die meisten autonomen und halbautonomen Systeme verwenden ein LiDAR-basiertes Simultaneous Localization and Mapping (SLAM)-System in Kombination mit MEMS inertialen Messeinheiten (IMU). Wenn LiDAR ausfällt und nur mehr IMU-Daten zur Berechnung des Zustandsvektors des Roboters herangezogen werden, werden Messfehler akkumuliert und die Position des Roboters driftet weg. Nach einigen Sekunden ohne LiDAR-Daten sind LiDAR-inertiale SLAM-Systeme nicht mehr in der Lage, den Scan nach dem Ausfall in der bereits erstellten Karte zu registrieren. In diesem Beitrag wird ein neuartiger Ansatz zur Fusionierung von LiDAR, Inertial- und Rad-Odometrie in einem Faktorgraphen für SLAM vorgestellt. Ein kombiniertes IMU- und Rad-Odometriemodell wird als erste Schätzung für den LiDAR-Scanabgleich und zur Überbrückung von LiDAR-Ausfällen verwendet. Der Algorithmus wird für zwei verschiedene Robotermodelle validiert und getestet. Die Ergebnisse zeigen, dass mit dem neuen IMU- und Rad-Odometrie-Modell die Lokalisierungsgenauigkeit während LiDAR-Ausfällen verbessert wird. Nach 30 Sekunden ohne LiDAR-Daten können die LiDAR-Punktwolken nach dem Ausfall immer noch zur zuvor erstellten Karte registriert werden.
Abstract
Precise positioning and mapping are key technologies for autonomous robots. Most autonomous and semi-autonomous systems use a LiDAR-focused Simultaneous Localization and Mapping (SLAM) in combination with MEMS Inertial Measurement Units (IMU). When LiDAR fails and only IMU data are used to compute the state vector of the robot, errors accumulate. After a few seconds without LiDAR data, LiDAR-inertial SLAM systems can no longer register the scan after the outage to the already created map. This paper proposes a novel approach for fusing LiDAR, inertial, and wheel odometry in a factor graph for SLAM. A combined IMU and wheel odometry model is used as an initial guess for LiDAR scan matching and to bridge LiDAR outages. The algorithm is evaluated and tested for two different robot models. The results show that with the proposed IMU and wheel odometry model localization accuracy improves during LiDAR outages. After 30 seconds without LiDAR data, the LiDAR point clouds after the outage can still be matched to the previously created map.
PDF-Download
VGI_202402_Reitbauer.pdf
VGI_202402_Reitbauer.pdf
GNSS-Vermessung in Jahren eines Sonnenfleckenmaximums – eine Kurzeinführung
Kurzfassung
In Jahren eines Sonnenfleckenmaximums treten verstärkt Probleme bei der zentimetergenauen GNSS-Positionsbestimmung auf, die auf Störungen in der Ionosphäre zurückzuführen sind. In Mitteleuropa sind davon insbesondere die Herbst- und Wintermonate betroffen.
Abstract
In sunspot maximum years, problems with centimeter-accurate GNSS positioning are more frequent due to disturbances in the ionosphere. In central Europe, these problems are most severe in autumn and winter months.
In Jahren eines Sonnenfleckenmaximums treten verstärkt Probleme bei der zentimetergenauen GNSS-Positionsbestimmung auf, die auf Störungen in der Ionosphäre zurückzuführen sind. In Mitteleuropa sind davon insbesondere die Herbst- und Wintermonate betroffen.
Abstract
In sunspot maximum years, problems with centimeter-accurate GNSS positioning are more frequent due to disturbances in the ionosphere. In central Europe, these problems are most severe in autumn and winter months.
PDF-Download
VGI_202313_Wanninger.pdf
VGI_202313_Wanninger.pdf
Direkte Georeferenzierung von Bildern eines unbemannten Luftfahrzeuges mit LowCost-Sensoren
Kurzfassung
Unbemannte Luftfahrzeuge können mit einer Vielzahl von unterschiedlichen Bordsensoren ausgestattet werden.Dazu zählen typischerweise ein GNSS-Empfänger, eine inertiale Messeinheit, ein Magnetometer und ein Luftdrucksensor. Diese Sensoren dienen dazu, den Piloten bei seiner Flugmission zu unterstützen und ermöglichen die Durchführung von autonomen Flügen. In diesem Beitrag wird gezeigt, dass diese Sensoren außerdem dazu verwendet werden können, um Bilder einer Kamera direkt zu georeferenzieren. Darunter versteht man die direkte Bestimmung (d.h. ohne Nutzung des Bildinhaltes) der Position (drei Koordinaten) und der Orientierung (drei Drehwinkel) der Kamera zum Aufnahmezeitpunkt der Bilder. Die Einführung dieser Beobachtungen in die Bündelblockausgleichung (integrierte Sensororientierung) vermeidet weitgehend Deformationen des Bildblockes, wie sie bei der Nutzung von nur wenigen Passpunkten auftreten können. Als Flugplattform wurde ein Multikopter, basierend auf der MikroKopter-Plattform, eingesetzt. Die Flugplattform ist als offenes System konzipiert und erlaubte somit Modifikationen, welche die Aufzeichnung der Sensorrohdaten und deren Synchronisation mit der Kamera möglich machten. Normalerweise werden für die direkte Georeferenzierung von Luftbildern nur der GNSS-Empfänger und die Sensoren der inertialen Messeinheit verwendet. Die in unbemannten Luftfahrzeugen typischerweise dafür eingesetzten MEMS-Sensoren zeichnen sich zwar durch ein geringes Gewicht aus, liefern aber nur eine geringe Messgenauigkeit. Daher ist die Erweiterung von GNSS und inertialer Messeinheit mit einem Magnetometer und einem Luftdrucksensor notwendig. Durch die Integration aller Sensoren zu einem Gesamtsystem kann damit die Genauigkeit der Positions- und Orientierungsbestimmung entscheidend verbessert werden. Die Evaluierung der vorgeschlagenen Methode zeigt, dass die Position der Bilder mit einer Präzision von ca. 0.5m (Lage) bzw. 1.0m (Höhe) bestimmt werden kann. Die Orientierungswinkel können mit einer Präzision von ca.1° (Roll und Nick) und 2° (Gier) bestimmt werden. Es kamen dazu ausschließlich die zur Flugsteuerung bereits vorhandenen Bordsensoren zum Einsatz.
Abstract
Unmanned aerial vehicles (UAV) can be equipped with a large variety of different on-board sensors.The typical UAV setup consists of a GNSS antenna with a receiver, an inertial measurement unit (IMU), a magnetometer and an air pressure sensor.These sensors allow to assist the pilot on the ground and to carry out autonomous flights.This article demonstrates that these sensors can be additionally used to directly georeference the imagery taken from the UAV platform.This results in the estimation of the position (three coordinates) and orientation (three rotation angles) of the images without the usage of the image content.The integration of these observations into a bundle block adjustment (integrated sensor orientation) avoids a deformation of the image block, as it can occur if only few control points were used. Within the practical examples, a multi-rotor system based on the MikroKopter platform was utilized.The open source character of the project allowed some minor code modification that allowed recording the raw sensor data and made the synchronisation with the camera trigger signal possible. The direct georeferencing of aerial images is typically just based on GNSS and IMU observations. Due to the low measurement quality of the utilized MEMS sensors, the additional usage of a magnetometer and an air pressure sensor is essential to support the GNSS and IMU observations. By the integration of the observations of all sensors a significant increase of accuracy and reliability of the determined positions and orientations can be achieved. The evaluation of the proposed method shows that the estimated position of the image can be determined with a precession of approx. 0.5 m (planar) and 1 m (height).The rotation angles can be determined with a precision of approx. 1° (roll and nick) and 2° (yaw).The direct georeferencing of the images of this practical test is just based on the sensor equipment that is already available on-board of the MikroKopter platform.
Unbemannte Luftfahrzeuge können mit einer Vielzahl von unterschiedlichen Bordsensoren ausgestattet werden.Dazu zählen typischerweise ein GNSS-Empfänger, eine inertiale Messeinheit, ein Magnetometer und ein Luftdrucksensor. Diese Sensoren dienen dazu, den Piloten bei seiner Flugmission zu unterstützen und ermöglichen die Durchführung von autonomen Flügen. In diesem Beitrag wird gezeigt, dass diese Sensoren außerdem dazu verwendet werden können, um Bilder einer Kamera direkt zu georeferenzieren. Darunter versteht man die direkte Bestimmung (d.h. ohne Nutzung des Bildinhaltes) der Position (drei Koordinaten) und der Orientierung (drei Drehwinkel) der Kamera zum Aufnahmezeitpunkt der Bilder. Die Einführung dieser Beobachtungen in die Bündelblockausgleichung (integrierte Sensororientierung) vermeidet weitgehend Deformationen des Bildblockes, wie sie bei der Nutzung von nur wenigen Passpunkten auftreten können. Als Flugplattform wurde ein Multikopter, basierend auf der MikroKopter-Plattform, eingesetzt. Die Flugplattform ist als offenes System konzipiert und erlaubte somit Modifikationen, welche die Aufzeichnung der Sensorrohdaten und deren Synchronisation mit der Kamera möglich machten. Normalerweise werden für die direkte Georeferenzierung von Luftbildern nur der GNSS-Empfänger und die Sensoren der inertialen Messeinheit verwendet. Die in unbemannten Luftfahrzeugen typischerweise dafür eingesetzten MEMS-Sensoren zeichnen sich zwar durch ein geringes Gewicht aus, liefern aber nur eine geringe Messgenauigkeit. Daher ist die Erweiterung von GNSS und inertialer Messeinheit mit einem Magnetometer und einem Luftdrucksensor notwendig. Durch die Integration aller Sensoren zu einem Gesamtsystem kann damit die Genauigkeit der Positions- und Orientierungsbestimmung entscheidend verbessert werden. Die Evaluierung der vorgeschlagenen Methode zeigt, dass die Position der Bilder mit einer Präzision von ca. 0.5m (Lage) bzw. 1.0m (Höhe) bestimmt werden kann. Die Orientierungswinkel können mit einer Präzision von ca.1° (Roll und Nick) und 2° (Gier) bestimmt werden. Es kamen dazu ausschließlich die zur Flugsteuerung bereits vorhandenen Bordsensoren zum Einsatz.
Abstract
Unmanned aerial vehicles (UAV) can be equipped with a large variety of different on-board sensors.The typical UAV setup consists of a GNSS antenna with a receiver, an inertial measurement unit (IMU), a magnetometer and an air pressure sensor.These sensors allow to assist the pilot on the ground and to carry out autonomous flights.This article demonstrates that these sensors can be additionally used to directly georeference the imagery taken from the UAV platform.This results in the estimation of the position (three coordinates) and orientation (three rotation angles) of the images without the usage of the image content.The integration of these observations into a bundle block adjustment (integrated sensor orientation) avoids a deformation of the image block, as it can occur if only few control points were used. Within the practical examples, a multi-rotor system based on the MikroKopter platform was utilized.The open source character of the project allowed some minor code modification that allowed recording the raw sensor data and made the synchronisation with the camera trigger signal possible. The direct georeferencing of aerial images is typically just based on GNSS and IMU observations. Due to the low measurement quality of the utilized MEMS sensors, the additional usage of a magnetometer and an air pressure sensor is essential to support the GNSS and IMU observations. By the integration of the observations of all sensors a significant increase of accuracy and reliability of the determined positions and orientations can be achieved. The evaluation of the proposed method shows that the estimated position of the image can be determined with a precession of approx. 0.5 m (planar) and 1 m (height).The rotation angles can be determined with a precision of approx. 1° (roll and nick) and 2° (yaw).The direct georeferencing of the images of this practical test is just based on the sensor equipment that is already available on-board of the MikroKopter platform.
PDF-Download
VGI_201307_Glira.pdf
VGI_201307_Glira.pdf
Durchschlagsprognose für das ÖBB Infrastrukturprojekt "Semmering-Basistunnel neu"
Kurzfassung
Für lange und komplexe Tunnelprojekte ist eine a-priori- Prognose der zu erwartenden Durchschlagsgenauigkeiten unverzichtbar. Darauf aufbauend werden verbindlich die Anforderungen für den Bau sowie die Vortriebs- und Kontrollvermessungen festgelegt. Anhand des ÖBB Infrastrukturprojekts Semmering-Basistunnel neu werden die Kriterien dieser Prognoserechnungen diskutiert und verschiedene Varianten miteider verglichen. Besonderheiten wie Zugangsstollen und Schächte bei Zwischegriffen werden entsprechend berücksichtigt. Die Beachtung von Erfahrungen und Empfehlungen aus anderen Tunnelprojekten führt auch hier zu vergleichsweise geringen Quer- und Höhenkomponenten in den Durchschlagspunkten. Geringe Querfehler können jedoch nur durch den Einsatz von zahlreichen Kreiselazimuten gewährleistet werden, die bei diesem Projekt zu den Schlüsselbeobachtungen zählen.
Abstract
Long and complex tunnelling projects require the a-priori-prognosis of the expected breakthrough accuracies to define the specifications regarding tunnel construction and tunnel surveying. Based on the infrastructure project Semmering base tunnel commissioned by the Austrian Federal Railways (ÖBB) the criteria of such an a-priorinetwork simulation are discussed and different versions are compared. Specific features like access tunnels and access shafts are regarded. Considering the experiences and recommendations of other tunnelling projects yields relatively small transverse and height errors. Small transverse errors can, however, only be ensured by numerous gyroscope observations.These measurements emerge to the key observations in this project.
Für lange und komplexe Tunnelprojekte ist eine a-priori- Prognose der zu erwartenden Durchschlagsgenauigkeiten unverzichtbar. Darauf aufbauend werden verbindlich die Anforderungen für den Bau sowie die Vortriebs- und Kontrollvermessungen festgelegt. Anhand des ÖBB Infrastrukturprojekts Semmering-Basistunnel neu werden die Kriterien dieser Prognoserechnungen diskutiert und verschiedene Varianten miteider verglichen. Besonderheiten wie Zugangsstollen und Schächte bei Zwischegriffen werden entsprechend berücksichtigt. Die Beachtung von Erfahrungen und Empfehlungen aus anderen Tunnelprojekten führt auch hier zu vergleichsweise geringen Quer- und Höhenkomponenten in den Durchschlagspunkten. Geringe Querfehler können jedoch nur durch den Einsatz von zahlreichen Kreiselazimuten gewährleistet werden, die bei diesem Projekt zu den Schlüsselbeobachtungen zählen.
Abstract
Long and complex tunnelling projects require the a-priori-prognosis of the expected breakthrough accuracies to define the specifications regarding tunnel construction and tunnel surveying. Based on the infrastructure project Semmering base tunnel commissioned by the Austrian Federal Railways (ÖBB) the criteria of such an a-priorinetwork simulation are discussed and different versions are compared. Specific features like access tunnels and access shafts are regarded. Considering the experiences and recommendations of other tunnelling projects yields relatively small transverse and height errors. Small transverse errors can, however, only be ensured by numerous gyroscope observations.These measurements emerge to the key observations in this project.
Keywords/Schlüsselwörter
ÖBB Semmering-Basistunnel neu Durchschlagsprognose Durchschlagsfehler Netzsimulation
ÖBB Semmering-Basistunnel neu Durchschlagsprognose Durchschlagsfehler Netzsimulation
PDF-Download
VGI_201301_Macheiner.pdf
VGI_201301_Macheiner.pdf
GNSS/IMU integration for the precise determination of highly kinematic flight trajectories
Kurzfassung
Eine Voraussetzung für die Bestimmung von Punkten auf und nahe der Erdoberfläche unter Verwendung eines luftfahrzeuggestützten Laserscanners ist die Kenntnis der räumlichen Position und der räumlichen Orientierung des Laserscanners während des Fluges. Die Bestimmung dieser Parameter erfolgt aus Messungen eines Multisensorsystems, bestehend aus einem GNSS Empfänger und einem Trägheitsnavigationssystem. Dieser Artikel beinhaltet die Grundprinzipien der IMU/GNSS Integration sowie den Vergleich einer Integrations-Software, entwickelt an der TU Wien, mit der kommerziellen Software Waypoint. Weitere Untersuchungen befassen sich mit der Modellierung und Implementierung der systematischen Fehler der IMU.
Abstract
An indispensable prerequisite for operating an airborne laserscanner for point determination on or close to the earths surface is the knowledge about the precise spatial position and orientation of the laserscanner. These parameters of the aircrafts (respectively scanner) trajectory can be determined using a multi-sensor system which consists of a GNSS receiver and an inertial navigation system. This article focuses on the basic principles of IMU/ GNSS integration and the comparison of a combination software, developed at TU Vienna, with the commercial software Waypoint. Further investigations cover the implementation and modelling of the IMU sensor errors.
Eine Voraussetzung für die Bestimmung von Punkten auf und nahe der Erdoberfläche unter Verwendung eines luftfahrzeuggestützten Laserscanners ist die Kenntnis der räumlichen Position und der räumlichen Orientierung des Laserscanners während des Fluges. Die Bestimmung dieser Parameter erfolgt aus Messungen eines Multisensorsystems, bestehend aus einem GNSS Empfänger und einem Trägheitsnavigationssystem. Dieser Artikel beinhaltet die Grundprinzipien der IMU/GNSS Integration sowie den Vergleich einer Integrations-Software, entwickelt an der TU Wien, mit der kommerziellen Software Waypoint. Weitere Untersuchungen befassen sich mit der Modellierung und Implementierung der systematischen Fehler der IMU.
Abstract
An indispensable prerequisite for operating an airborne laserscanner for point determination on or close to the earths surface is the knowledge about the precise spatial position and orientation of the laserscanner. These parameters of the aircrafts (respectively scanner) trajectory can be determined using a multi-sensor system which consists of a GNSS receiver and an inertial navigation system. This article focuses on the basic principles of IMU/ GNSS integration and the comparison of a combination software, developed at TU Vienna, with the commercial software Waypoint. Further investigations cover the implementation and modelling of the IMU sensor errors.
Keywords/Schlüsselwörter
Flugzeugtrajektorie GNSS (Globales Navigationssatellitensystem) IMU (Inertiale Messeinheit)
Flugzeugtrajektorie GNSS (Globales Navigationssatellitensystem) IMU (Inertiale Messeinheit)
PDF-Download
VGI_201113_Hinterberger.pdf
VGI_201113_Hinterberger.pdf