FAQ
© 2016 Staats- und Universitätsbibliothek
Hamburg, Carl von Ossietzky

Öffnungszeiten heute09.00 bis 24.00 Uhr alle Öffnungszeiten

Eingang zum Volltext in OPUS

Hinweis zum Urheberrecht

Dissertation zugänglich unter
URN: urn:nbn:de:gbv:18-78835
URL: http://ediss.sub.uni-hamburg.de/volltexte/2016/7883/


Indoor Vision-based Robot Navigation : a Neural Probabilistic Approach

Indoor Vision-basierte Roboter-Navigation : ein neuronalen probabilistischen Ansatz

Yan, Wenjie

pdf-Format:
 Dokument 1.pdf (33.369 KB) 


Basisklassifikation: 54.72
Institut: Informatik
DDC-Sachgruppe: Informatik
Dokumentart: Dissertation
Hauptberichter: Wermter, Stefan (Prof. Dr.)
Sprache: Englisch
Tag der mündlichen Prüfung: 17.03.2016
Erstellungsjahr: 2015
Publikationsdatum: 02.06.2016
Kurzfassung auf Englisch: Socially assistive robotics has experienced a steadily growing interest over the last decade. Mobile robots with sensors and external sensing devices, which may also be integrated synergistically, enable a human-like interaction with the environment. As a precondition for assisting a person, a robot needs to navigate to the position of the person first. To achieve this, the robot needs to localize the target person and itself; calculate an optimal trajectory; and adapt its motion in real time during navigation. Despite advances in mobile robotics, autonomous indoor robot navigation is still challenging. Due to the high complexity of the real world and possible dynamical changes, it is hard to localize a person or a robot robustly in an unconstrained environment. Sophisticated sensor systems can improve the localization, but will increase the system costs significantly and require a person with expert knowledge for setup. On the other hand, although it is a mature research field, robot autonomous navigation still relies on artificial landmarks and the accuracy of sensor signals. This limits the flexibility and the robustness of robot navigation as well. In addition to navigation in cluttered environments, a robot needs to cope with dynamic conditions while taking into account the presence of its human companion.

This thesis presents a novel framework for vision-based person/robot localization and navigation. A hybrid neural probabilistic architecture is developed to localize a service robot and a person in a home-like environment using a ceiling-mounted camera. Considering that an integration of multiple visual cues can increase the detection reliability, multiple visual cues are employed and combined with a Sigma-Pi network. Through fast adaptation, parts of the visual cues can be learned during tracking, which increases the system robustness.

Taking into account the latest research insights into the neural mechanisms of decision-making during goal-directed navigation, we developed a neural-inspired system for robot navigation based on learning the spatial information. A spatial memory is built to represent the environment and a sensorimotor representation to learn control signals of the robot's navigation behavior. Based on learned spatial and sensorimotor information, a robot can reach arbitrary target positions by real-time motion planning. As one of the advantages of our navigation system, the motion signal is processed by a fast combination of the sensorimotor memory information instead of being calculated according to the current position and the map information. This fast combination accelerates the computation and ensures a real-time behavior during the robot's navigation. In addition, considering the fact that a person could move around in a room without colliding with objects, we have developed the system to learn the spatial information by observing the person's movements. Through an integration of reactive behaviors with the motion planning, the robot is able to adapt its spatial representation and avoid obstacles proactively.

A camera integrated into the head of the robot is used to learn the appearance of the environment during navigation. Visual features of the current camera view are extracted and associated with the state of the robot in the spatial memory, which builds up a view-based memory of the environment context. This memory, together with the cognitive map, provides the robot with the ability to solve complex cognitive tasks such as fetching an object observed during previous navigation.

Experimental evaluations of the localization and the navigation models are conducted in a home-like laboratory as well as through field trials of the KSERA project. A humanoid Nao robot is used to test the navigation, obstacle avoidance, and the learning of the appearance of the environment. Through analysis of the results, we show that through tracking a person with integration of adaptive visual cues, the localization system is able to learn the environment, which enables the robot to navigate to target positions robustly. When the environment changes, the robot can adapt its behavior autonomously and learn to avoid the obstacles in the future.

In conclusion, our research presents a novel neural probabilistic robot localization and navigation system that provides a mere concept while enabling far-reaching functionality. Through emulating several basic functionalities of the brain-for example, the spatial cognition and redundant information representation for target recognition-the system is able to achieve complex tasks such as robust target tracking, environment learning through observation, and flexible robot navigation in a home-like environment. The concept of our work is implemented and evaluated using a robot platform in a home-like environment, and the experimental results show that our neural system helps a robot to realize different functions successfully. We believe that through the further development of artificial intelligence, robotic sensors, and robotic hardware, highly intelligent functions will be realistic and assist people in their daily lives.
Kurzfassung auf Deutsch: Sozial-assistive Robotik hat ein stetig wachsendes Interesse im letzten Jahrzehnt erfahren. Mobile Roboter mit Sensoren und externen Erfassungsvorrichtungen, welche auch synergistisch integriert werden können, ermöglichen eine menschenähnliche Wechselwirkung mit der Umgebung. Als Voraussetzung zur Unterstützung einer Person, muss ein Roboter zuerst zu der Position der Person navigieren. Um dies zu erreichen, muss der Roboter die Zielperson sowie sich selbst lokalisieren, eine optimale Trajektorie berechnen, und seine Bewegung während der Navigation in Echtzeit anpassen. Trotz der Fortschritte im Gebiet der mobilen Robotik, ist die autonome Indoor-Navigation immer noch eine Herausforderung. Aufgrund der hohen Komplexität der realen Welt und auch aufgrund der möglich dynamischen Änderungen der Umgebung, ist es schwierig, eine Person oder einen Roboter robust in einer ungezwungen Umgebung zu lokalisieren. Ausgefeilte Sensorsystemene können die Lokalisierung verbessern, jedoch können sie die Systemkosten deutlich erhöhen und benötigen eine Person mit Expertwissen für die Einrichtung. Auf der anderen Seite, trotz ausgereifter Forschung, ist autonome Roboter-Navigation immer noch auf künstliche Landmarken und die Genauigkeit der Sensorsignale angewiesen. Dies begrenzt insbesondere auch die Flexibilität und die Robustheit der Roboter-Navigation. Neben der Roboter-Navigation in schwierigen Umgebungen, muss ein Roboter dynamische Bedingungen bewältigen, aber auch die Anwesenheit des menschlichen Partners berücksichtigen.

Diese Arbeit präsentiert einen neuartigen Ansatz für die Bildverarbeitung-basierte Person / Roboter Lokalisation und Navigation. Eine hybride neuronale Wahrscheinlichkeitssystem wurde entwickelt, um einen Serviceroboter bzw. eine Person in einer hausähnlichen Umgebung mittels einer Deckenkamera zu lokalisieren. Damit die Integration von mehreren visuellen Signale die Detektionsrobustheit erhöhen kann, sind in unserem System mehrere visuelle Signale verwendet und mit einem Sigma-Pi-Netzwerk kombiniert. Teile der visuellen Signale können während der Verfolgung durch eine schnelle Anpassung erlernt werden, welche die Robustheit des Systems weiterhin verbesseren.

Unter Berücksichtigung der neuesten Forschungseinblicke in die neuronalen Mechanismen der Entscheidungsfindung für die zielgerichtete Navigation, haben wir ein neuroinspiriertes System für Roboternavigation basierend auf dem Erlernen der räumlichen Informationen entwickelt. In diesem System ist ein räumliches Gedächtnis eingebaut, um die Umgebungsinformation darzustellen und eine sensomotorische Repräsentation für die Steuersignale des Roboter-Navigationsverhaltens zu lernen. Basierend auf der gelernten räumlichen und sensomotorischen Informationen, kann ein Roboter beliebige Zielpositionen durch Bewegungsplanung in Echtzeit erreichen. Als einer der Vorteile unsereres Navigationssystems, wird das Bewegungssignal durch eine schnelle Kombination der sensomotorischen Speicherinformationen verarbeitet, statt dass die Signale gemäß der aktuellen Position und der Karteninformation berechnet werden muss. Diese schnelle Kombination beschleunigt die Berechnung, und gewährleistet ein Echtzeitverhalten während der Roboternavigation. Darüber hinaus, unter Berücksichtigung der Tatsache dass eine Person sich in einem Raum ohne Kollision mit Objekten bewegen könnte, haben wir ein System entwickelt, um die räumliche Information durch die Beobachtung der Bewegung der Person zu lernen. Durch eine Integration von reaktiven Verhaltensweisen mit der Bewegungsplanung, ist der Roboter in der Lage, die räumliche Darstellung nach der Detektion der Hindernissen anzupassen und solchen gelernten Hindernissen proaktiv auszuweichen.

Eine in den Kopf des Roboters integrierte Kamera wird verwendet, um das Aussehen der Umgebung während der Navigation zu lernen. Visuelle Merkmale des aktuellen Kamerabildes werden extrahiert und mit dem Zustand des Roboters im räumlichen Gedächtniss verbunden, welches einen Sicht-basierten Speicher für den Umwelt-Kontext aufbaut. Dieser Speicher, zusammen mit der kognitiven Karte, stattet den Roboter mit der Fähigkeit aus, komplexe kognitive Aufgaben wie das Abrufen eines in früheren Navigations beobachteten Objekts, zu lösen.

Experimente der Lokalisierung sowie der Navigationsmodelle werden sowohl in einem heimähnlichen Labor als auch durch Feldversuche des KSERA Projektes durchgeführt. Ein humanoider Nao Roboter wird verwendet, um die Navigation, die Hindernisvermeidung und das Lernen des Erscheinung der Umgebung zu testen. Durch Analyse der Versuchsergebnisse wird gezeigt, dass durch die Verfolgung einer Person mittels Integration von adaptiven visuellen Signale, unser System in der Lage ist, die Umgebung zu lernen. Dies ermöglicht dem Roboter zur Zielposition robust zu navigieren. Wenn die Umgebung sich ändert, kann der Roboter sein Verhalten selbständig anpassen und lernen, die Hindernisse in der Zukunft zu vermeiden.

Zusammenfassend, zeigt unsere Forschung ein neuartiges Neuro-Wahrscheinlichkeitssystem für die Roboter-Lokalisation und -Navigation. Durch die Emulation mehrere Basisfunktionalitäten des Gehirns - zum Beispiel die Raumkognition und redundante Informationsdarstellung für Zielerkennung - ist das System in der Lage, komplexe Aufgaben wie beispielsweise robuste Zielverfolgung, Lernen der Umwelt durch Beobachtung, und flexible Roboternavigation in einer heim-ähnlichen Umgebung zu erreichen. Das Konzept unserer Arbeit wird mit Hilfe einer Roboter-Platform in einer heimähnlichen Umgebung durchgeführt und evaluiert, und die experimentellen Ergebnisse zeigen, dass unser neuronales System helfen kann, um verschiedene Roboter-Funktionen erfolgreich zu realisieren. Wir glauben, dass durch die Weiterentwicklung der künstlichen Intelligenz, der Roboter-Sensoren, und der Roboter-Hardware, hoch intelligente Funktionen realistisch sein werden, welche das tägliche Leben der Menschen unterstützen.

Zugriffsstatistik

keine Statistikdaten vorhanden
Legende