LINEX Support Vector Machine for Large-Scale Classification
- 1. Beijing Institute of Big Data Research
- 2. University of Chinese Academy of Sciences
- 3. Chinese Academy of Sciences
- 4. Tencent (China)
Description
Traditional soft margin support vector machine usually uses hinge loss to build a classifier with the ''maximum-margin'' principle.However, C-SVM depends on support vectors causing the loss of data information.Then, least square support vector machine is proposed with square loss (l 2 -loss).It establishes equality constraints instead of inequalities and considering all the instances.However, the square loss is still not the perfect one, since it gives equivalent punishment to the instances at both sides of the center plane.It does not match the reality considering the instances between two center planes deserve heavier penalty than the others.To this end, we propose a novel SVM method with the adoption of the asymmetry LINEX (linearexponential) loss, which we called it LINEX-SVM.The LINEX loss gives different treatments to instances based on the importance of each point.It gives a heavier penalty to the points between two center planes while drawing light penalty to the points outside of the corresponding center planes.The comprehensive experiments have been implemented to validate the effectiveness of the LINEX-SVM.
Translated Descriptions
Translated Description (Arabic)
عادةً ما تستخدم آلة ناقلات دعم الهامش الناعم التقليدية فقدان المفصلات لبناء مصنف بمبدأ "الحد الأقصى للهامش". ومع ذلك، يعتمد C - SVM على ناقلات الدعم التي تسبب فقدان معلومات البيانات. ثم، يتم اقتراح أقل آلة ناقلات دعم مربعة مع خسارة مربعة (l 2 - خسارة). إنه يحدد قيود المساواة بدلاً من عدم المساواة والنظر في جميع الحالات. ومع ذلك، فإن الخسارة المربعة لا تزال غير مثالية، لأنها تعطي عقوبة مكافئة للحالات على جانبي المستوى المركزي. لا تتطابق مع الواقع بالنظر إلى أن الحالات بين مستويين مركزيين تستحق عقوبة أثقل من غيرها. تحقيقا لهذه الغاية، نقترح طريقة SVM جديدة مع اعتماد خسارة LINEX غير المتماثلة (LINEX غير المتماثلة)، والتي أطلقنا عليها LINEX - SVM. يعطي فقدان LINEX علاجات مختلفة للحالات بناءً على أهمية كل نقطة. إنه يعطي عقوبة أشد للنقاط بين خطين مركزيين بينما يرسم عقوبة الضوء على النقاط الخارجية للخطة المقابلة. وقد تم تنفيذ التجارب الشاملة لفعالية LINEX - VM.Translated Description (French)
La machine à vecteur de support de marge souple traditionnelle utilise généralement la perte de charnière pour construire un classificateur avec le principe de « marge maximale ». Cependant, C-SVM dépend des vecteurs de support causant la perte d'informations de données. Ensuite, la machine à vecteur de support des moindres carrés est proposée avec une perte carrée (perte l 2). Elle établit des contraintes d'égalité au lieu d'inégalités et en considérant toutes les instances. Cependant, la perte carrée n'est toujours pas la parfaite, car elle donne une punition équivalente aux instances des deux côtés du plan central. Elle ne correspond pas à la réalité en considérant que les instances entre deux plans centraux méritent une pénalité plus lourde que les autres. À cette fin, nous proposons une nouvelle méthode SVM avec l'adoption de la perte asymétrique LINEX (Linearexponential), que nous avons appelée LINEX-SVM. La perte LINEX donne différents traitements aux instances en fonction de l'importance de chaque point. Elle donne une pénalité plus lourde aux points entre deux plans centraux tout en attirant une pénalité légère aux points en dehors des plans centraux correspondants. Les expériences complètes ont été mises en œuvre pour valider l'efficacité du LINEX-SVM.Translated Description (Spanish)
La máquina vectorial de soporte de márgenes blandos tradicional generalmente utiliza la pérdida de bisagra para construir un clasificador con el principio de '' margen máximo ''. Sin embargo, C-SVM depende de vectores de soporte que causan la pérdida de información de datos. Luego, se propone una máquina vectorial de soporte de mínimos cuadrados con pérdida cuadrada (l 2 -pérdida). Establece restricciones de igualdad en lugar de desigualdades y teniendo en cuenta todas las instancias. Sin embargo, la pérdida cuadrada aún no es la perfecta, ya que da un castigo equivalente a las instancias en ambos lados del plano central. No coincide con la realidad teniendo en cuenta que las instancias entre dos planos centrales merecen una penalización más pesada que las demás. Para este fin, proponemos un nuevo método SVM con la adopción de la pérdida asimétrica LINEX (linearexponencial), que llamamos LINEX-SVM. La pérdida LINEX da diferentes tratamientos a las instancias en función de la importancia de cada punto. Da una penalización más pesada a los puntos entre dos planos centrales mientras que dibuja una penalización ligera a los puntos fuera de los planos centrales correspondientes. Los experimentos integrales se han implementado para validar la efectividad del LINEX-SVM.Files
08723128.pdf.pdf
Files
(245 Bytes)
| Name | Size | Download all |
|---|---|---|
|
md5:100f92b1aab03fabe0cd9b62dc03e7d1
|
245 Bytes | Preview Download |
Additional details
Additional titles
- Translated title (Arabic)
- آلة دعم ناقلات لينكس للتصنيف على نطاق واسع
- Translated title (French)
- Machine vectorielle de support LINEX pour la classification à grande échelle
- Translated title (Spanish)
- Máquina Vectorial de Soporte LINEX para Clasificación a Gran Escala
Identifiers
- Other
- https://openalex.org/W2947539368
- DOI
- 10.1109/access.2019.2919185
References
- https://openalex.org/W104184427
- https://openalex.org/W114517082
- https://openalex.org/W1527525292
- https://openalex.org/W1596717185
- https://openalex.org/W1755117326
- https://openalex.org/W195150910
- https://openalex.org/W1977307283
- https://openalex.org/W1980287119
- https://openalex.org/W2005876975
- https://openalex.org/W2024060531
- https://openalex.org/W2034365297
- https://openalex.org/W2043221606
- https://openalex.org/W2046033161
- https://openalex.org/W2061885628
- https://openalex.org/W2080638293
- https://openalex.org/W2081621367
- https://openalex.org/W2090089568
- https://openalex.org/W2091825929
- https://openalex.org/W2102943360
- https://openalex.org/W2107438106
- https://openalex.org/W2114080886
- https://openalex.org/W2125736403
- https://openalex.org/W2125993116
- https://openalex.org/W2129191766
- https://openalex.org/W2136627475
- https://openalex.org/W2148603752
- https://openalex.org/W2150024778
- https://openalex.org/W2153635508
- https://openalex.org/W2155867588
- https://openalex.org/W2165966284
- https://openalex.org/W2166765763
- https://openalex.org/W2170860445
- https://openalex.org/W2189713350
- https://openalex.org/W2544883878
- https://openalex.org/W2950789046
- https://openalex.org/W2969945254
- https://openalex.org/W2998520482
- https://openalex.org/W3000180257
- https://openalex.org/W3004885021
- https://openalex.org/W3120740533
- https://openalex.org/W4231631481
- https://openalex.org/W4239510810
- https://openalex.org/W4245558064
- https://openalex.org/W4292363360