Volltextdatei(en) vorhanden
DC ElementWertSprache
dc.contributor.advisorWermter, Stefan (Prof. Dr.)
dc.contributor.authorMeins, Nils
dc.date.accessioned2020-10-19T13:23:50Z-
dc.date.available2020-10-19T13:23:50Z-
dc.date.issued2019
dc.identifier.urihttps://ediss.sub.uni-hamburg.de/handle/ediss/8262-
dc.description.abstractEin Schlüsselfaktor beim Erstellen von Ensemble-Klassifikatoren, die mehrere Klassifikatoren kombinieren, um ein Ergebnis zu erhalten, ist die Diversität der kombinierten Klassifikatoren. Wenn wir viele Klassifikatoren kombinieren, die auf dieselbe Weise reagieren, erzielen wir durch die Kombination keinen Vorteil. Daher konzentriert sich die von uns entwickelte Anwendung auf Diversität. Wir verwenden einfache Merkmale und einfache Basisklassifikatoren, erhöhen jedoch die Diversität, um einen starken Ensembleklassifizierer zu erstellen. Daher sind die von uns erstellten Merkmale, Klassifikatoren und Hybridarchitekturen darauf ausgelegt, die Diversität zu erhöhen anstatt diese zu verfeinern, um eine höhere Genauigkeit zu erreichen. Diese Dissertation endstand aus dem europäischen Forschungsprojekt KSERA, das den Einsatz von Robotern zur sozialen Unterstützung von älteren Menschen untersuchte. Um mit einer Person zu kommunizieren, muss ein Roboter wissen, ob er die Aufmerksamkeit einer Person hat, was der Fall ist, wenn die Person den Roboter ansieht. Ein wesentlicher erster Schritt ist daher die Gesichtserkennung, weshalb wir Gesichtserkennung gewählt haben, um unser Model zu untersuchen. Außerdem sollte unsere Anwendung schnell trainiert und ausgeführt werden können, da sie mit (begrenzter) Roboterhardware ausgeführt werden können soll. Als Merkmale nutzen wir die Pixelsumme mehrerer Rechtecke, die in unterschiedlichen geometrischen Strukturen angeordnet sind. Der Wert eines Merkmals ist ein Vektor, der die Pixelsumme eines Rechtecks als Element verwendet. Wir ordnen die Rechtecke in verschiedene Systematiken ein, d.h. verschiedene Arten von Merkmalen mit unterschiedlichem Aussehen werden in Gruppen nach ihrer Ähnlichkeit gruppiert. Wir entwickelten zwei Klassifikatoren, die diese Merkmale verwenden. Ein Klassifikator nutzt Template Matching, um ein Merkmal mit einem erlernten Muster zu vergleichen. Der zweite Klassifikator funktioniert auf die gleiche Weise, verwendet jedoch ein Hopfield Neural Network (HNN), um das Merkmalsmuster zu lernen. Wir kombinieren unsere Klassifikatoren mit dem Viola/Jones Schwellwertklassifikator, um hybride Ensemble- und Kaskadenklassifikatorem zu erstellen. Die hybriden Klassifikatoren verwenden eine kleinere Menge von Klassifikatoren mit erhöhter Diversität für das Training. Wir zeigen, dass unsere neuen Merkmale und Klassifikatoren die homogenen Ensemble-Klassifikatoren verbessern. Beide Klassifikationsmodelle, die wir eingeführt haben, unterscheiden sich nur darin, ob sie das HNN verwenden oder nicht. Wir haben das HNN eingeführt, um durch sein dynamisches Verhalten die Diversität zu erhöhen und um die Fähigkeit zu nutzen, Muster aus unscharfen Eingangsdaten wieder herzustellen. Das HNN führt zu unterschiedlichem Verhalten beider Klassifikationsmodelle. Wir analysieren die Unterschiede zwischen den beiden Klassifikationstypen und zeigen, dass das HNN die Diversität erhöht. In unserer zweiten Kombination, der Forced Hybrid Architecture, passen wir das Training an, um die Diversität zu erhöhen, indem wir dazu zwingen, erst andere Merkmale auszuwählen, anstatt die besten. Außerdem führen wir weitere unterschiedlich aussehende Merkmale ein, mit dem Ziel, die Diversität zu erhöhen. Wir zeigen, dass die meisten Merkmale auch für sich alleine gute Ergebnisse erzielen. Durch die Forced Hybrid Architektur und die erweiterten Merkmale können wir unsere Anwendung weiter verbessern. Die Kombination guter Merkmale mit schlechteren Merkmalen kann den resultierenden Klassifikator verbessern, verglichen mit dem Training beider Klassifikatoren mit nur einem Merkmalstyp. Obwohl wir dazu zwingen, schlechtere Merkmale zu verwenden, ist deren Einfluss oft gleichwohl von Vorteil. Daher verbessert die Forced Hybrid Architecture unsere Klassifikatoren. Schließlich haben wir unsere Merkmale und Klassifikationsmodelle auf das Problem der nicht binären Abschätzung von Blickrichtungen angewendet. Dort haben wir gezeigt, dass unser Ansatz von Merkmalen und das HNN zum Erlernen mehrerer Muster zu verwenden, auch in der Lage ist, Probleme mit mehreren Klassen zu lösen.de
dc.description.abstractA key factor in creating ensemble classifiers, which combine several classifiers to obtain a result, is diversity of the combined classifiers. If we combine many classifiers that react in the same way, we do not achieve any benefit by combining them. Thus, the application we built focuses on diversity. We use simple features and simple base classifiers, but increase diversity to create a strong ensemble classifier. Thus, the features, classifiers and hybrid architectures we create are designed to increase diversity instead of sophisticating them to achieve greater accuracy. This thesis arises out of the European research project KSERA which examines a social assistance robot created to help the elderly. To communicate with a person, a robot needs to know whether it has the attention of the person, which is given if the person looks at the robot. Therefore, an essential first step is face detection, which is why we use it to examine our application. Further, our application shall be swift to train and execute because it has been able to run with (limited) robot hardware. As features, we use the pixel sum of several rectangles, arranged in different geometrical structures. The value of one feature is a vector using the pixel sum of one rectangle as an element. We arrange the rectangles into different systematics, i.e. different types of features with different appearance are grouped into sets based on their similarity. We developed two classifier models that use these features. One classifier uses template matching to compare a feature with a learned pattern. The second classifier works the same way, but uses a Hopfield Neural Network (HNN) to learn the feature. Together with the Viola/Jones threshold classifier, we combine our classifiers to create a hybrid ensemble and cascade classifier. The hybrid classifiers use a small but more diverse set of classifiers for training, and we show that our new features and classifiers improve the single type ensemble classifiers. Both classifier models that we introduced only differ in terms of whether or not they use the HNN. We introduced the HNN to achieve a diversity benefit from its dynamic and to use its recreation ability of patterns from a noisy input. The HNN leads to different behavior among both classifier models. We analyze the differences between both classifier types and show that the HNN increases diversity. In our second combination, the Forced Hybrid Architecture, we adapt the training to increase diversity by forcing it to select different features first, instead of the best. Further, we introduce more different appearances of features, also with the aim of increasing diversity. We show that most sets create also good results on their own. However, through the Forced Hybrid Architecture and the extended features, we can further improve our application. Combining a good set with an inferior set can improve the resulting classifier compared to training both classifiers with only one set. Although we are forced to use an inferior set, its influence is often beneficial all the same. Thus, the Forced Hybrid Architecture improves our classifiers. Finally, we applied our features and classifier models to the multi-class problem of head-pose estimation. There, we showed that our approach of features and the HNN to learn multiple patterns is also able to solve multi-class problems.en
dc.language.isoenen
dc.publisherStaats- und Universitätsbibliothek Hamburg Carl von Ossietzky
dc.rightshttp://purl.org/coar/access_right/c_abf2
dc.subjectDiversitätde
dc.subjectMaschinelles Lernende
dc.subjectEnsemble Methodende
dc.subjectGesichtserkennungde
dc.subjectDiversityen
dc.subjectMachine Learningen
dc.subjectEnsemble Methodsen
dc.subjectFace Detectionen
dc.subject.ddc004 Informatik
dc.titleDiversity-driven Hopfield Neural Network Ensembles for Face Detectionen
dc.title.alternativeDiversitätsgetriebene Hopfield Neural Network Ensembles für Gesichtserkennungde
dc.typedoctoralThesis
dcterms.dateAccepted2019-06-05
dc.rights.ccNo license
dc.rights.rshttp://rightsstatements.org/vocab/InC/1.0/
dc.subject.bcl54.72 Künstliche Intelligenz
dc.subject.bcl54.74 Maschinelles Sehen
dc.type.casraiDissertation-
dc.type.dinidoctoralThesis-
dc.type.driverdoctoralThesis-
dc.type.statusinfo:eu-repo/semantics/publishedVersion
dc.type.thesisdoctoralThesis
tuhh.opus.id9866
tuhh.opus.datecreation2019-08-05
tuhh.type.opusDissertation-
thesis.grantor.departmentInformatik
thesis.grantor.placeHamburg
thesis.grantor.universityOrInstitutionUniversität Hamburg
dcterms.DCMITypeText-
tuhh.gvk.ppn1676092420
dc.identifier.urnurn:nbn:de:gbv:18-98665
item.advisorGNDWermter, Stefan (Prof. Dr.)-
item.grantfulltextopen-
item.languageiso639-1other-
item.fulltextWith Fulltext-
item.creatorOrcidMeins, Nils-
item.creatorGNDMeins, Nils-
Enthalten in den Sammlungen:Elektronische Dissertationen und Habilitationen
Dateien zu dieser Ressource:
Datei Beschreibung Prüfsumme GrößeFormat  
Dissertation.pdf61a0b50dd094533bd47a24c3505bae9d18.86 MBAdobe PDFÖffnen/Anzeigen
Zur Kurzanzeige

Diese Publikation steht in elektronischer Form im Internet bereit und kann gelesen werden. Über den freien Zugang hinaus wurden durch die Urheberin / den Urheber keine weiteren Rechte eingeräumt. Nutzungshandlungen (wie zum Beispiel der Download, das Bearbeiten, das Weiterverbreiten) sind daher nur im Rahmen der gesetzlichen Erlaubnisse des Urheberrechtsgesetzes (UrhG) erlaubt. Dies gilt für die Publikation sowie für ihre einzelnen Bestandteile, soweit nichts Anderes ausgewiesen ist.

Info

Seitenansichten

621
Letzte Woche
Letzten Monat
geprüft am 28.03.2024

Download(s)

112
Letzte Woche
Letzten Monat
geprüft am 28.03.2024
Werkzeuge

Google ScholarTM

Prüfe