FAQ
© 2015 Staats- und Universitätsbibliothek
Hamburg, Carl von Ossietzky

Öffnungszeiten heute09.00 bis 24.00 Uhr alle Öffnungszeiten

Eingang zum Volltext in OPUS

Hinweis zum Urheberrecht

Dissertation zugänglich unter
URN: urn:nbn:de:gbv:18-58275
URL: http://ediss.sub.uni-hamburg.de/volltexte/2012/5827/


Action-Driven Perception : Neural Architectures Based On Sensorimotor Principles

Handlungsgetriebene Wahrnehmung : Künstliche Neuronale Netze basierend auf sensomotorischen Design-Prinzipien

Kleesiek, Jens Philipp

pdf-Format:
 Dokument 1.pdf (16.013 KB) 


SWD-Schlagwörter: Robotik , Sensomotorik , Bestärkendes Lernen <Künstliche Intelligenz> , Maschinelles Lernen
Freie Schlagwörter (Englisch): Sensorimotor Learning , Artificial Neural Networks , Reinforcement Learning , Robotics, Embodied Cognition
Basisklassifikation: 54.99 , 54.72
Institut: Informatik
DDC-Sachgruppe: Informatik
Dokumentart: Dissertation
Hauptberichter: Engel, Andreas K. (Prof. Dr.)
Sprache: Englisch
Tag der mündlichen Prüfung: 13.08.2012
Erstellungsjahr: 2012
Publikationsdatum: 13.09.2012
Kurzfassung auf Englisch: The active nature of perception and the intimate relation of action and cognition has been emphasized in philosophy and cognitive science for a long time. However, most of the current approaches do not consider the fundamental role of action for perception. Inspired by theories rooted in the research field of embodied cognition we have designed artificial neural architectures for the learning of sensorimotor laws. All our models have in common that the agent actually needs to act to perceive. This core principle is exploited for the design of a series of computational studies, including simulations and real-world robot experiments. In a first experiment, a virtual robot learns to navigate towards a target region. For this purpose, it learns sensorimotor laws and visual features simultaneously, using the world as an outside memory. The control laws are trained using a two-layer network consisting of a feature (sensory) layer that feeds into an action (reinforcement learning) layer. The prediction error modulates the learning of both layers. In a second experiment, we introduce a novel bio-inspired neural architecture that combines reinforcement learning and Sigma-Pi neurons. In a simulation we verify that a virtual agent successfully learns to reach for an object while discovering invariant hand-object relations simultaneously. Again, the prediction error of the action layer is used to modulate all the weights in the network. In a third experiment we extend a recurrent architecture with an adaptive learning regime and use this algorithm for an object categorization task with a real humanoid robot. Based on self-organized dynamic multi-modal sensory perceptions, the robot is able to ‘feel’ different objects and discriminate them with a very low error rate. All these experiments are inspired by the same sensorimotor design principles. Further, they are united by the idea that actively acquired sensorimotor knowledge enhances perception and results in goal-directed behavior.
Kurzfassung auf Deutsch: In der Philosophie und in den Kognitionswissenschaften wird schon seit längerer Zeit auf die besonders enge Verknüpfung, die Handlungen und kognitive Prozesse haben, hingewiesen. Leider berücksichtigen die meisten der gegenwärtigen Studien aus dem Bereich der Robotik diesen fundamentalen Einfluss von Handlungen auf die Wahrnehmung nicht. Inspiriert durch Theorien, die ihren Ursprung in einem Forschungsfeld haben, das unter dem Begriff des Embodiments zusammengefasst wird, einer These nach der Intelligenz die physikalische Interaktion des Körpers voraussetzt, haben wir verschiedene künstliche neuronale Netzwerkarchitekturen entwickelt, die in der Lage sind, sensomotorische Zusammenhänge zu erlernen. Allen unseren Modellen ist gemein, dass der Agent handeln muss, um überhaupt etwas wahrzunehmen. Dieses Kernprinzip nutzen wir für verschiedene Computerexperimente aus, die Simulationen sowie Studien mit echten Robotern umfassen.
Die erste Studie befasst sich mit der Navigation zu einer Zielregion. Ein virtueller Roboter erlernt sensomotorische Gesetzmäßigkeiten und extrahiert dabei gleichzeitig visuelle Merkmale aus seiner Umwelt. Hierfür ist der Agent mit einem zwei-schichtigen künstlichen neuronalen Netz ausgerüstet, das aus einer sensorischen und einer Handlungs-Schicht besteht. Der Vorhersagefehler der Handlungs-Schicht, realisiert durch verstärkendes Lernen, dient hierbei nicht nur zur Anpassung der Synapsen dieser Schicht, sondern moduliert gleichzeitig auch noch die Synapsen der sensorischen Neuronen.
In einem zweiten Experiment stellen wir eine neu entwickelte bio-inspirierte Netzwerkarchitektur vor, die verstärkendes Lernen mit Sigma-Pi Neuronen verbindet. Es wird in einer Simulation gezeigt, dass ein virtueller Agent mit Hilfe dieser Architektur in der Lage ist, invariante Situationen zu erkennen. Gleichzeitig erlernt er auch noch das erfolgreiche Greifen nach Objekten. Auch in diesem Fall beeinflusst der Vorhersagefehler der Handlungs-Schicht alle synaptischen Gewichte des Netzwerks.
In der dritten Studie erlernt ein echter humanoider Roboter, Bauklötze durch multisensorische Wahrnehmung zu kategorisieren. Zu diesem Zweck haben wir den Algorithmus einer speziellen rekurrenten Netzwerkarchitektur um eine adaptive Lernregel erweitert. Das rekurrente Netz speichert und gruppiert die multisensorischen Eindrücke, die durch die Interaktion mit den Objekten entstehen. Hierdurch ist der Roboter später in der Lage, verschiedene Objekte zu ‘erfühlen’ und erfolgreich voneinander zu diskriminieren.
Alle drei Studien sind durch die selben sensomotorischen Design-Prinzipien motiviert. Außerdem verbindet sie die Idee, dass aktiv erworbene sensomotorische Zusammenhänge die Wahrnehmung erweitern und dadurch zu zielgerichtetem und erfolgreichem Handeln führen können.

Zugriffsstatistik

keine Statistikdaten vorhanden
Legende