FAQ
© 2015 Staats- und Universitätsbibliothek
Hamburg, Carl von Ossietzky

Öffnungszeiten heute09.00 bis 24.00 Uhr alle Öffnungszeiten

Eingang zum Volltext in OPUS

Hinweis zum Urheberrecht

Dissertation zugänglich unter
URN: urn:nbn:de:gbv:18-40546
URL: http://ediss.sub.uni-hamburg.de/volltexte/2009/4054/


Color Image Processing for Advanced Driver Assistance Systems

Farbbildverarbeitung für fortgeschrittene Fahrerassistenzsysteme

Rotaru, Calin Augustin

pdf-Format:
 Dokument 1.pdf (24.814 KB) 


SWD-Schlagwörter: Bildverarbeitung , color
Freie Schlagwörter (Deutsch): Bildverarbeitung , Farbe , Fahrerassistenzsysteme , FAS
Freie Schlagwörter (Englisch): Imageprocessing , Color , Driver Assistance Systems , ADAS
Basisklassifikation: 54.74
Institut: Informatik
DDC-Sachgruppe: Informatik
Dokumentart: Dissertation
Hauptberichter: Zhang, Jianwei (Prof. Dr.)
Sprache: Englisch
Tag der mündlichen Prüfung: 16.07.2008
Erstellungsjahr: 2008
Publikationsdatum: 06.04.2009
Kurzfassung auf Deutsch: Heutzutage kommen immer neuere Sicherheits- und Komfortsysteme auf den Automobilmarkt. Nach den aus den letzten Jahren bekannten Systemen ABS, ESP und automatischer Geschwindigkeitsregelanlage (Adaptive Cruise Control) erscheinen nun auch Sicherheitssysteme wie PRE-SAFE in ersten Serienanläufen in der Luxus-Klasse. Solche Systeme werden in die Zukunft immer häufiger Kameras einbinden, da Video-Systeme in der Lage sind, sehr schnell und günstig klassifikations-Informationen zu liefern. Aktuell gibt es noch sehr wenige auf Video basierte Lösungen in Serie. Keine dieser Lösungen arbeitet aktuell mit Farbkameras.

Diese Arbeit beschreibt einen kompletten Farbbildverarbeitungssensor mit Hauptanwendung in Fahrspur- und Objekt-Erkennung. Der Video-Sensor wird zusammen mit Radar- und Lidar-Sensor in einer Sensordatenfusionsumgebung in der Konzernforschung der Volkswagen AG integriert. Die benutzte Kamera, ein Camcorder, ist über Firewire mit dem Daten-Bearbeitungssystem (PC) verbunden. Der ausgewählte Ansatz erzeugt eine interne Darstellung der Daten und ein beinhaltet ein Tracking zwischen Bildern. Auf Basis dieser Darstellung und Kamera-Kalibrierungsdaten wird am Ende der Bearbeitungskette eine Umrechnung der benötigten Ausgaben in 3D Koordinaten durchgeführt.

Zunächst wird entsprechend der Aufgabe (Spur- und Objekterkennung) eine Segmentierung des Farb-Bildes (dargestellt im HSI-Raum) vorgenommen. Unsere Methode basiert auf einem neuen Konzept, das auf der Projektion der Szenen-Pixel auf die SI Ebene beruht. Diese Methode liefert bessere Ergebnisse im Vergleich zu den existierenden Methoden (lineare Farb-Segmentierung, Histogramm Thresholding, Nearest-Neighbour, probabilistische Methoden) bezüglich Segmentierungs-Genauigkeit, -Geschwindigkeit oder beidem. Nach der Segmentierung werden mehrere relativ einfache Algorithmen mit dem Ziel, eine Nachbildung der Szeneninformation in 2-D Bild Koordinaten zu erreichen, angewendet. Besonders erwähnenswert ist hier die Fusion der verschiedenen Ergebnisse. Statt den Focus auf einen Algorithmus zu legen, verwenden wir mehrere Algorithmen, deren Anwendungsgebiete sich ergänzen und fusionieren deren Ausgaben abhängig von der erkannten Situation. Ebenfalls erwähnenswert ist die besondere Leistung der Algorithmen in Bezug auf die Erkennung und Nachverfolgung ferner Objekte (ber 100m). Bis jetzt existieren nur sehr wenige Ansätze, die Fahrzeuge in einer derart großen Entfernung stabil erkennen können. Diese basieren stets nur auf einer Zoom-Optik. Die Umrechnung der Ergebnisse in 3D Koordinaten erfolgt ebenfalls nach einem neuen Verfahren. Statt die ¨ubliche vertikal-basierte Triangulation zu verwenden, setzen wir eine horizontale Triangulation ein, die die Breite des Fahrzeuges über die Breite der Fahrspur berechnet. Ist dies nicht möglich, wird eine predefinierte Breite für jede Fahrzeugklasse zugewiesen. Dieses Vorgehen garantiert die Unabhängigkeit von Nickwinkelnderungen und liefert deutlich stabilere Ergebnisse.

Zusammenfassend haben wir versucht, der Bildverarbeitung für Automotive Anwendungen mit zwei neuen Forschungsansetzen zu begegnen. Der erste Ansatz ist die Echtzeit-Farbbildverarbeitung auf Basis einer neuen Segmentierungsmethode. Der zweite ist ein kognitiver Ansatz, in dem Informationen ber die aktuelle Umgebungssituation dazu benutzt werden, um die Ergebnisse einfacherer Algorithmen zusammen zu führen. Die in dieser Arbeit vorgestellten Verfahren bilden die Grundlage, die Farbbildverarbeitung im automobilen Umfeld zu etablieren.
Kurzfassung auf Englisch: Nowadays, new safety and comfort systems are emerging on the automotive market. After the well known ABS, ESP and Automatic Cruise Control, in the last years systems like PRE-SAFE Brake Assistant have made their appearance in luxury cars. Such safety systems may hugely benefit from the classification information delivered by video sensors. Unfortunately few video sensors are present in series and up to date none is using color vision.

This thesis focuses on a complete color image processing sensor. Lane recognition and object detection are the main tasks to be accomplished by the sensor. It is integrated in a sensor fusion environment in use at Group Research, Volkswagen AG together with radar and lidar sensors. The hardware used is a color camcorder linked to a processing unit (PC) via firewire. The chosen approach is to create an internal representation of the environment which is updated between acquired images. Based on this representation the required 3D output is generated, taking into consideration the camera calibration data.

The first step is to segment the color image (represented in HSI) according to the task (lane recognition, object detection). Our segmentation uses a new algorithm based on the projection of the scene points onto the SI plane. This algorithm outperforms for the typical automotive scenes most of the current state of the art methods (linear color/histogram thresholding, nearest-neighbour, probabilistical) in terms of accuracy, speed or both. Next, various relative simple algorithms are applied to create a representation of the environment related to 2D image coordinates. Worth mentioning is the way these algorithm are merged. Instead of focusing on single algorithm performance, we use multiple relatively simple algorithms that complement each other and merge the results based on the recognition of the particular situation. The detection and following of distant objects is worth mentioning, due to its performance in the far range (over 100m). Up to now, there are very few applications able to perform such an accurate detection and tracking. All of them mainly rely on optics and not on detection algorithms. The conversion of the results in 3D coordinates also introduces a different approach as compared to the typical triangulation methods. Instead of using the vertical position in picture, we are using the width of the car and either assume a default 3D with or compute it relative to lane width. This assures a significant gain in the stability of the output (no influence over pitch angle movements).

Summing up, we have tried to approach the subject of image processing in automotive applications using two new directions. One is real time color image processing, where a new segmentation method was introduced. The other is a cognitive approach, in which knowledge over the current situation is used to merge the results of more relatively simple algorithms. The new methods introduced in this work put a basis for a large development direction that should contribute to establishing color image processing in the automotive field.

Zugriffsstatistik

keine Statistikdaten vorhanden
Legende