FAQ
© 2015 Staats- und Universitätsbibliothek
Hamburg, Carl von Ossietzky

Öffnungszeiten heute09.00 bis 24.00 Uhr alle Öffnungszeiten

Eingang zum Volltext in OPUS

Hinweis zum Urheberrecht

Dissertation zugänglich unter
URN: urn:nbn:de:gbv:18-72129
URL: http://ediss.sub.uni-hamburg.de/volltexte/2015/7212/


System Design and Real-Time Guidance of an Unmanned Aerial Vehicle for Autonomous Exploration of Outdoor Environments

Systementwurf und Echtzeitsteuerung eines unbemannten Luftfahrzeugs zur autonomen Exploration von Außenumgebungen

Adler, Benjamin

pdf-Format:
 Dokument 1.pdf (7.315 KB) 


SWD-Schlagwörter: Geodäsie , Satellitennavigation , Robotik , Kartierung , Lidar , GNSS , Bahnplanung
Freie Schlagwörter (Deutsch): UAV , GNSS , Inertial , Autonome Exploration
Freie Schlagwörter (Englisch): UAV , GNSS , Inertial , Mapping , Autonomous Exploration
Basisklassifikation: 50.25
Institut: Informatik
DDC-Sachgruppe: Informatik
Dokumentart: Dissertation
Hauptberichter: Zhang, Jianwei (Prof. Dr.)
Sprache: Englisch
Tag der mündlichen Prüfung: 27.02.2015
Erstellungsjahr: 2014
Publikationsdatum: 17.03.2015
Kurzfassung auf Englisch: The central endeavor of this thesis is the successful development and evaluation of an aerial mobile robotic system that produces precise, georeferenced, three-dimensional maps of outdoor environments by means of autonomous exploration.

The system consists of a ground station and a custom-built UAV with six degrees of freedom, featuring an on-board computer, an inertial navigation system, and two 2D laser range finders. In addition to a description of the hardware architecture and individual components being used, this dissertation presents challenges and problems that arose during the construction of its hard- and software as well as optimizations applied in the course of its development.

A fundamental part of this work is the distributed software architecture for in-flight sensor fusion and data analysis, with a focus on a novel, truly three-dimensional algorithm generating multiple next-best-views (NBVs). Designed for application on airborne platforms in outdoor environments, the approach works directly on raw, unstructured point clouds and can be used either indoors or outdoors with any sensor generating spatial occupancy information.

Based on the generated sensor-poses and the incrementally growing point cloud, trajectories are computed for the UAV to autonomously map its environment. To ensure safe operation, collision avoidance constantly monitors the planned path and updates it whenever obstacles are detected.

In order to satisfy real-time constraints, all algorithms are implemented on a highly parallel SIMD architecture found in modern GPUs, allowing for extremely fast motion planning and responsive visualization. As the underlying hardware imposes limitations with regards to memory access and concurrency, necessary data structures and further performance considerations are explained in detail.

Data has been captured during real, autonomous flights and is used to analyze the performance of all major components (flight controller, next-best-view generation, dynamic path planning and collision avoidance) of the system in realistic outdoor scenarios. The performance of the GPU-based next-best-view algorithm is also compared against a previous, CPU-based proof of concept.
Kurzfassung auf Deutsch: Die vorliegende Dissertation berichtet über die Entwicklung eines luftgestützten Robotersystems zur autonomen Erkundung von Außenumgebungen mit dem Ziel der Erstellung präziser, georeferenzierter Karten.

Das vorgestellte System besteht aus einer Bodenstation sowie einer eigens konstruierten Drohne, welche einen Computer, ein Navigationsystem und zwei Laserscanner mitführt. Neben einer Beschreibung der Hardwarearchitektur und ihrer Komponenten werden Herausforderungen und Einschränkungen bei Systemintegration und Softwareentwicklung, sowie Optimierungen im späteren Verlauf der Entwicklung präsentiert.

Ein zentraler Teil der Arbeit ist eine verteilte Softwarearchitektur zur Fusion und Analyse von Sensordaten im Flug, wobei hier der Fokus auf einem neuartigen Algorithmus zur Erstellung von next-best-views aus bereits erstelltem Kartenmaterial liegt. Obwohl zur Anwendung auf luftgestützten Plattformen zur Kartographie von Außenumgebungen mittels LIDAR erdacht, ist der Algorithmus direkt auf jegliche räumliche Sensordaten (z.B. von sämtlichen Laserscannern, RGBD- und Time-of-Flight-Kameras) anwendbar. Basierend auf den erzeugten Sensorpositionen und dem aktuellen Stand der Karte erzeugt das System sichere Flugrouten zur weiteren Kartierung des Gebiets und überwacht diese auf Hindernisse.

Um einen Einsatz in Echtzeit zu ermöglichen, sind die Algorithmen auf parallel arbeitenden GPUs implementiert.
Dies ermöglicht nicht nur schnelle Flugplanung, sondern auch effiziente und interaktive Visualisierung der aufgenommenen Daten und der Arbeitsweise der eingesetzten Algorithmen. Da die zugrundeliegende Hardware besondere Anforderungen an Speicherzugriffsmuster und Nebenläufigkeit stellt, werden Datenstrukturen und weitere Überlegungen zur Leistungssteigerung im Detail erläutert.

Weiterer Bestandteil der Arbeit ist eine Analyse von Daten aus echten Flügen in Außenumgebungen zur Beurteilung der Anwendbarkeit und Leistungsfähigkeit aller verwendeten Komponenten (Flugsteuerung, Erzeugung von next-best-views, Pfadplanung und Kollisionsvermeidung). Ferner wird das Laufzeitverhalten des GPU-basierten next-best-view Algorithmus mit dem eines CPU-basierten Prototyps verglichen.

Zugriffsstatistik

keine Statistikdaten vorhanden
Legende