Published June 8, 2021 | Version v1
Publication Open

Understanding Capacity Saturation in Incremental Learning

  • 1. McGill University
  • 2. Vrije Universiteit Amsterdam
  • 3. Centre Universitaire de Mila
  • 4. Université de Montréal
  • 5. Canadian Institute for Advanced Research

Description

In class-incremental learning, a model continuously learns from a sequential data stream in which new classes are introduced.There are two main challenges in classincremental learning: catastrophic forgetting and capacity saturation.In this work, we focus on capacity saturation where a learner is unable to achieve good generalization due to its limited capacity.To understand how to increase model capacity, we present the continual architecture design problem where at any given step, a continual learner needs to adapt its architecture to achieve a good balance between performance, computational cost and memory limitations.To address this problem, we propose Continual Neural Architecture Search (CNAS) which takes advantage of the sequential nature of classincremental learning to efficiently identify strong architectures.CNAS consists of a task network for image classification and a reinforcement learning agent as the meta-controller for architecture adaptation.We also accelerate learning by transferring weights from the previous learning step thus saving a large amount of computational resources.We evaluate CNAS on the CIFAR-100 dataset in several incremental learning scenarios with limited computational power (1 GPU).We empirically demonstrate that CNAS can mitigate capacity saturation and achieve performances comparable with full architecture search while being at least one order of magnitude more efficient.

⚠️ This is an automatic machine translation with an accuracy of 90-95%

Translated Description (Arabic)

في التعلم التراكمي للصف، يتعلم النموذج باستمرار من تدفق البيانات المتسلسلة التي يتم فيها تقديم فصول جديدة. هناك تحديان رئيسيان في التعلم التراكمي للصف: النسيان الكارثي وتشبع السعة. في هذا العمل، نركز على تشبع السعة حيث يكون المتعلم غير قادر على تحقيق تعميم جيد بسبب قدرته المحدودة. لفهم كيفية زيادة سعة النموذج، نقدم مشكلة التصميم المعماري المستمر حيث يحتاج المتعلم المستمر في أي خطوة معينة إلى تكييف بنيته لتحقيق توازن جيد بين الأداء، التكلفة الحسابية وقيود الذاكرة. ولمعالجة هذه المشكلة، نقترح البحث المستمر في العمارة العصبية (CNAS) الذي يستفيد من الطبيعة المتسلسلة للتعلم الطبقي لتحديد البنى القوية بكفاءة. يتكون البحث المستمر في العمارة العصبية من شبكة مهام لتصنيف الصور وعامل تعلم معزز كوحدة تحكم ميتا للتكيف مع العمارة. كما نقوم بتسريع التعلم عن طريق نقل الأوزان من خطوة التعلم السابقة وبالتالي توفير كمية كبيرة من الموارد الحسابية. نقوم بتقييم البحث المستمر في العمارة العصبية على مجموعة بيانات CIFAR -100 في العديد من سيناريوهات التعلم التدريجي مع قوة حسابية محدودة (1 وحدة معالجة الرسومات). إثبات أن CNAS يمكن أن يخفف من تشبع السعة ويحقق أداءً يمكن مقارنته بالبحث المعماري الكامل مع كونه ترتيبًا واحدًا على الأقل من حيث الحجم أكثر كفاءة.

Translated Description (French)

Dans l'apprentissage incrémentiel en classe, un modèle apprend continuellement à partir d'un flux de données séquentiel dans lequel de nouvelles classes sont introduites. Il y a deux principaux défis dans l'apprentissage incrémentiel en classe : l'oubli catastrophique et la saturation de la capacité. Dans ce travail, nous nous concentrons sur la saturation de la capacité où un apprenant est incapable d'atteindre une bonne généralisation en raison de sa capacité limitée. Pour comprendre comment augmenter la capacité du modèle, nous présentons le problème de conception d'architecture continue où, à une étape donnée, un apprenant continu doit adapter son architecture pour atteindre un bon équilibre entre les performances, coûts de calcul et limites de mémoire. Pour résoudre ce problème, nous proposons la recherche continue d'architecture neuronale (CNAS) qui tire parti de la nature séquentielle de l'apprentissage incrémentiel de classe pour identifier efficacement les architectures fortes. Le CNAS se compose d'un réseau de tâches pour la classification d'images et d'un agent d'apprentissage de renforcement en tant que méta-contrôleur pour l'adaptation de l'architecture. Nous accélérons également l'apprentissage en transférant des poids de l'étape d'apprentissage précédente, économisant ainsi une grande quantité de ressources de calcul. Nous évaluons le CNAS sur l'ensemble de données CIFAR-100 dans plusieurs scénarios d'apprentissage incrémentiel avec une puissance de calcul limitée (1 GPU). Nous évaluons empiriquement démontrer que CNAS peut atténuer la saturation de la capacité et atteindre des performances comparables à la recherche d'architecture complète tout en étant au moins un ordre de grandeur plus efficace.

Translated Description (Spanish)

En el aprendizaje incremental en clase, un modelo aprende continuamente de un flujo de datos secuencial en el que se introducen nuevas clases. Hay dos desafíos principales en el aprendizaje incremental en clase: el olvido catastrófico y la saturación de capacidad. En este trabajo, nos centramos en la saturación de capacidad donde un alumno no puede lograr una buena generalización debido a su capacidad limitada. Para comprender cómo aumentar la capacidad del modelo, presentamos el problema de diseño de arquitectura continua donde, en cualquier paso dado, un alumno continuo necesita adaptar su arquitectura para lograr un buen equilibrio entre el rendimiento, costos computacionales y limitaciones de memoria. Para abordar este problema, proponemos la Búsqueda Continua de Arquitectura Neural (CNAS), que aprovecha la naturaleza secuencial del aprendizaje incremental de clase para identificar eficientemente arquitecturas sólidas. El CNAS consiste en una red de tareas para la clasificación de imágenes y un agente de aprendizaje de refuerzo como metacontrolador para la adaptación de la arquitectura. También aceleramos el aprendizaje transfiriendo pesos del paso de aprendizaje anterior, ahorrando así una gran cantidad de recursos computacionales. Evaluamos el CNAS en el conjunto de datos CIFAR-100 en varios escenarios de aprendizaje incremental con potencia computacional limitada (1 GPU). demostrar que CNAS puede mitigar la saturación de capacidad y lograr rendimientos comparables con la búsqueda completa de arquitectura, siendo al menos un orden de magnitud más eficiente.

Files

pdf.pdf

Files (343.2 kB)

⚠️ Please wait a few minutes before your translated files are ready ⚠️ Note: Some files might be protected thus translations might not work.
Name Size Download all
md5:8fd2408e4bc1d8ed9f46cfcf4f04a9b3
343.2 kB
Preview Download

Additional details

Additional titles

Translated title (Arabic)
فهم تشبع السعة في التعلم التزايدي
Translated title (French)
Comprendre la saturation des capacités dans l'apprentissage incrémentiel
Translated title (Spanish)
Comprender la saturación de capacidades en el aprendizaje incremental

Identifiers

Other
https://openalex.org/W3167869959
DOI
10.21428/594757db.71b1a185

GreSIS Basics Section

Is Global South Knowledge
Yes
Country
Algeria

References

  • https://openalex.org/W1682403713
  • https://openalex.org/W2095705004
  • https://openalex.org/W2112796928
  • https://openalex.org/W2182361439
  • https://openalex.org/W2553303224
  • https://openalex.org/W2577146403
  • https://openalex.org/W2587014634
  • https://openalex.org/W2773706593
  • https://openalex.org/W2788388592
  • https://openalex.org/W2806984819
  • https://openalex.org/W2902625698
  • https://openalex.org/W2915446515
  • https://openalex.org/W2947461406
  • https://openalex.org/W2962821147
  • https://openalex.org/W2963540014
  • https://openalex.org/W2963628712
  • https://openalex.org/W2964121744
  • https://openalex.org/W2980994576
  • https://openalex.org/W2996472503
  • https://openalex.org/W2999368783
  • https://openalex.org/W3118608800
  • https://openalex.org/W4230563027
  • https://openalex.org/W4290755975
  • https://openalex.org/W4295883599