Task-recency bias strikes back: Adapting covariances in Exemplar-Free Class Incremental Learning - Publikacja - MOST Wiedzy

Wyszukiwarka

Task-recency bias strikes back: Adapting covariances in Exemplar-Free Class Incremental Learning

Abstrakt

Exemplar-Free Class Incremental Learning (EFCIL) tackles the problem of training a model on a sequence of tasks without access to past data. Existing state-of-the-art methods represent classes as Gaussian distributions in the feature extractor's latent space, enabling Bayes classification or training the classifier by replaying pseudo features. However, we identify two critical issues that compromise their efficacy when the feature extractor is updated on incremental tasks. First, they do not consider that classes' covariance matrices change and must be adapted after each task. Second, they are susceptible to a task-recency bias caused by dimensionality collapse occurring during training. In this work, we propose AdaGauss - a novel method that adapts covariance matrices from task to task and mitigates the task-recency bias owing to the additional anti-collapse loss function. AdaGauss yields state-of-the-art results on popular EFCIL benchmarks and datasets when training from scratch or starting from a pre-trained backbone.

Autorzy (4)

Cytuj jako

Pełna treść

pobierz publikację
pobrano 1 razy
Wersja publikacji
Accepted albo Published Version
Licencja
Creative Commons: CC-BY otwiera się w nowej karcie

Słowa kluczowe

Informacje szczegółowe

Kategoria:
Aktywność konferencyjna
Typ:
publikacja w wydawnictwie zbiorowym recenzowanym (także w materiałach konferencyjnych)
Język:
angielski
Rok wydania:
2024
Opis bibliograficzny:
Rypeść G., Cygert S., Trzciński T., Twardowski B.: Task-recency bias strikes back: Adapting covariances in Exemplar-Free Class Incremental Learning// / : , 2024,
Źródła finansowania:
  • Ze środków IDEAS NCBR
Weryfikacja:
Politechnika Gdańska

wyświetlono 2 razy

Publikacje, które mogą cię zainteresować

Meta Tagi