Titel: Methods for Downstream Continual Learning with Foundation Models
Sprache: Englisch
Autor*in: Ahrens, Kyra
Erscheinungsdatum: 2025
Tag der mündlichen Prüfung: 2025-07-18
Zusammenfassung: 
Continual learning addresses the challenge of training deep neural networks on a sequence of tasks without catastrophic forgetting. This thesis bridges the gap in downstream continual fine-tuning of foundation models by introducing and evaluating four different strategies: dual-memory replay, multi-layer prototyping, selective specialization, and noise-augmented feature replay, each delivering strong performance across diverse unimodal classification and multimodal reasoning problems.
URL: https://ediss.sub.uni-hamburg.de/handle/ediss/11833
URN: urn:nbn:de:gbv:18-ediss-130222
Dokumenttyp: Dissertation
Betreuer*in: Wermter, Stefan
Enthalten in den Sammlungen:Elektronische Dissertationen und Habilitationen

Dateien zu dieser Ressource:
Datei Beschreibung Prüfsumme GrößeFormat  
Dissertation.pdfd8add0ce95a34bf318866337a59868949.61 MBAdobe PDFÖffnen/Anzeigen
Zur Langanzeige

Info

Seitenansichten

Letzte Woche
Letzten Monat
geprüft am null

Download(s)

Letzte Woche
Letzten Monat
geprüft am null
Werkzeuge

Google ScholarTM

Prüfe