Titel: | Methods for Downstream Continual Learning with Foundation Models | Sprache: | Englisch | Autor*in: | Ahrens, Kyra | Erscheinungsdatum: | 2025 | Tag der mündlichen Prüfung: | 2025-07-18 | Zusammenfassung: | Continual learning addresses the challenge of training deep neural networks on a sequence of tasks without catastrophic forgetting. This thesis bridges the gap in downstream continual fine-tuning of foundation models by introducing and evaluating four different strategies: dual-memory replay, multi-layer prototyping, selective specialization, and noise-augmented feature replay, each delivering strong performance across diverse unimodal classification and multimodal reasoning problems. |
URL: | https://ediss.sub.uni-hamburg.de/handle/ediss/11833 | URN: | urn:nbn:de:gbv:18-ediss-130222 | Dokumenttyp: | Dissertation | Betreuer*in: | Wermter, Stefan |
Enthalten in den Sammlungen: | Elektronische Dissertationen und Habilitationen |
Dateien zu dieser Ressource:
Datei | Beschreibung | Prüfsumme | Größe | Format | |
---|---|---|---|---|---|
Dissertation.pdf | d8add0ce95a34bf318866337a5986894 | 9.61 MB | Adobe PDF | Öffnen/Anzeigen |
Info
Seitenansichten
Letzte Woche
Letzten Monat
geprüft am null
Download(s)
Letzte Woche
Letzten Monat
geprüft am null
Werkzeuge