Published January 1, 2020 | Version v1
Publication Open

Incremental Cost-Sensitive Support Vector Machine With Linear-Exponential Loss

  • 1. University of Chinese Academy of Sciences
  • 2. Chinese Academy of Sciences
  • 3. Beijing Institute of Big Data Research
  • 4. Beijing Wuzi University

Description

Incremental learning or online learning as a branch of machine learning has attracted more attention recently.For large-scale problems and dynamic data problem, incremental learning overwhelms batch learning, because of its efficient treatment for new data.However, class imbalance problem, which always appears in online classification brings a considerable challenge for incremental learning.The serious class imbalance problem may directly lead to a useless learning system.Cost-sensitive learning is an important learning paradigm for class imbalance problems and widely used in many applications.In this article, we propose an incremental cost-sensitive learning method to tackle the class imbalance problems in the online situation.This proposed algorithm is based on a novel cost-sensitive support vector machine, which uses the Linear-exponential (LINEX) loss to implement high cost for minority class and low cost for majority class.Using the half-quadratic optimization, we first put forward the algorithm for the cost-sensitive support vector machine, called CSLINEX-SVM*.Then we propose the incremental cost-sensitive algorithm, ICSL-SVM.The results of numeric experiments demonstrate that the proposed incremental algorithm outperforms some conventional batch algorithms except the proposed CSLINEX-SVM*.

⚠️ This is an automatic machine translation with an accuracy of 90-95%

Translated Description (Arabic)

اجتذب التعلم التدريجي أو التعلم عبر الإنترنت كفرع للتعلم الآلي مزيدًا من الاهتمام مؤخرًا. بالنسبة للمشاكل واسعة النطاق ومشكلة البيانات الديناميكية، فإن التعلم التدريجي يطغى على التعلم الدفعي، بسبب معالجته الفعالة للبيانات الجديدة. ومع ذلك، فإن مشكلة عدم التوازن في الفصل الدراسي، والتي تظهر دائمًا في التصنيف عبر الإنترنت، تجلب تحديًا كبيرًا للتعلم التدريجي. قد تؤدي مشكلة عدم التوازن في الفصل الدراسي الخطيرة بشكل مباشر إلى نظام تعلم عديم الفائدة. يعد التعلم الحساس للتكلفة نموذجًا تعليميًا مهمًا لمشاكل عدم التوازن في الفصل الدراسي ويستخدم على نطاق واسع في العديد من التطبيقات. في هذه المقالة، نقترح طريقة تعلم إضافية حساسة للتكلفة لمعالجة مشاكل اختلال التوازن في الفصل الدراسي في الموقف عبر الإنترنت. تعتمد هذه الخوارزمية المقترحة على آلة ناقلات دعم جديدة حساسة للتكلفة، والتي تستخدم الخسارة الأسية الخطية (LINEX) لتنفيذ تكلفة عالية لفئة الأقليات وتكلفة منخفضة لفئة الأغلبية. باستخدام التحسين نصف التربيعي، طرحنا أولاً خوارزمية آلة ناقلات الدعم الحساسة للتكلفة، والتي تسمى CSLINEX - SVM *. ثم نقترح الخوارزمية الإضافية الحساسة للتكلفة، ICSL - SVM. تثبت نتائج التجارب الرقمية أن الخوارزمية الإضافية المقترحة تتفوق على بعض خوارزميات الدفعات التقليدية باستثناء CSLINEX - SVM * المقترحة.

Translated Description (French)

L'apprentissage progressif ou l'apprentissage en ligne en tant que branche de l'apprentissage automatique a récemment attiré plus d'attention. Pour les problèmes à grande échelle et les problèmes de données dynamiques, l'apprentissage progressif submerge l'apprentissage par lots, en raison de son traitement efficace des nouvelles données. Cependant, le problème de déséquilibre de classe, qui apparaît toujours dans la classification en ligne, pose un défi considérable pour l'apprentissage progressif. Le grave problème de déséquilibre de classe peut directement conduire à un système d'apprentissage inutile. L'apprentissage sensible aux coûts est un paradigme d'apprentissage important pour les problèmes de déséquilibre de classe et largement utilisé dans de nombreuses applications. Dans cet article, nous proposons une méthode d'apprentissage incrémentielle sensible aux coûts pour résoudre les problèmes de déséquilibre de classe dans la situation en ligne. Cet algorithme proposé est basé sur une nouvelle machine vectorielle de support sensible aux coûts, qui utilise la perte exponentielle linéaire (LINEX) pour mettre en œuvre un coût élevé pour la classe minoritaire et un faible coût pour la classe majoritaire. En utilisant l'optimisation semi-quadratique, nous avons d'abord proposé l'algorithme pour la machine vectorielle de support sensible aux coûts, appelée CSLINEX-SVM *. Ensuite, nous proposons l'algorithme incrémentiel sensible aux coûts, ICSL-SVM. Les résultats des expériences numériques démontrent que l'algorithme incrémentiel proposé surpasse certains algorithmes batch conventionnels à l'exception du CSLINEX-SVM * proposé.

Translated Description (Spanish)

El aprendizaje incremental o el aprendizaje en línea como una rama del aprendizaje automático ha atraído más atención recientemente. Para problemas a gran escala y problemas de datos dinámicos, el aprendizaje incremental abruma el aprendizaje por lotes, debido a su tratamiento eficiente para nuevos datos. Sin embargo, el problema de desequilibrio de clase, que siempre aparece en la clasificación en línea, plantea un desafío considerable para el aprendizaje incremental. El grave problema de desequilibrio de clase puede conducir directamente a un sistema de aprendizaje inútil. El aprendizaje sensible a los costos es un paradigma de aprendizaje importante para los problemas de desequilibrio de clase y se usa ampliamente en muchas aplicaciones. En este artículo, proponemos un método de aprendizaje incremental sensible a los costos para abordar los problemas de desequilibrio de clase en la situación en línea. Este algoritmo propuesto se basa en una novedosa máquina de vectores de soporte sensible a los costos, que utiliza la pérdida exponencial lineal (LINEX) para implementar un alto costo para la clase minoritaria y un bajo costo para la clase mayoritaria. Utilizando la optimización semicuadrática, primero presentamos el algoritmo para la máquina de vectores de soporte sensible a los costos, llamada CSLINEX-SVM *. A continuación, proponemos el algoritmo incremental sensible a los costos, ICSL-SVM. Los resultados de los experimentos numéricos demuestran que el algoritmo incremental propuesto supera a algunos algoritmos por lotes convencionales, excepto al CSLINEX-SVM * propuesto.

Files

09165545.pdf.pdf

Files (245 Bytes)

⚠️ Please wait a few minutes before your translated files are ready ⚠️ Note: Some files might be protected thus translations might not work.
Name Size Download all
md5:3562adb19d1b874c91770630b5f9784c
245 Bytes
Preview Download

Additional details

Additional titles

Translated title (Arabic)
آلة متجهات دعم تدريجية حساسة للتكلفة مع خسارة خطية- إضافية
Translated title (French)
Machine vectorielle de soutien incrémentielle sensible aux coûts avec perte exponentielle linéaire
Translated title (Spanish)
Máquina vectorial de soporte incremental sensible a los costes con pérdida exponencial lineal

Identifiers

Other
https://openalex.org/W3048773685
DOI
10.1109/access.2020.3015954

GreSIS Basics Section

Is Global South Knowledge
Yes
Country
China

References

  • https://openalex.org/W1549707591
  • https://openalex.org/W1551909886
  • https://openalex.org/W1996516822
  • https://openalex.org/W1996726072
  • https://openalex.org/W2030507150
  • https://openalex.org/W2040181375
  • https://openalex.org/W2042230250
  • https://openalex.org/W2061879449
  • https://openalex.org/W2069603750
  • https://openalex.org/W2080744942
  • https://openalex.org/W2087240369
  • https://openalex.org/W2099550922
  • https://openalex.org/W2104167780
  • https://openalex.org/W2106479238
  • https://openalex.org/W2108840547
  • https://openalex.org/W2125993116
  • https://openalex.org/W2126734246
  • https://openalex.org/W2131163986
  • https://openalex.org/W2132791018
  • https://openalex.org/W2137823674
  • https://openalex.org/W2148143831
  • https://openalex.org/W2153635508
  • https://openalex.org/W2154134600
  • https://openalex.org/W2156415837
  • https://openalex.org/W2156652258
  • https://openalex.org/W2526516990
  • https://openalex.org/W2549437329
  • https://openalex.org/W2566234880
  • https://openalex.org/W2735835382
  • https://openalex.org/W2751084232
  • https://openalex.org/W2766296277
  • https://openalex.org/W2782578088
  • https://openalex.org/W2792730533
  • https://openalex.org/W2802240654
  • https://openalex.org/W2806842871
  • https://openalex.org/W2908465383
  • https://openalex.org/W2910137068
  • https://openalex.org/W2913816472
  • https://openalex.org/W2917459525
  • https://openalex.org/W2980338201
  • https://openalex.org/W2986573306
  • https://openalex.org/W4239510810
  • https://openalex.org/W4250589301
  • https://openalex.org/W4292022450