Published January 1, 2020 | Version v1
Publication Open

An Empirical Study on Model-agnostic Debiasing Strategies for Robust Natural Language Inference

  • 1. Peking University
  • 2. Beijing University of Posts and Telecommunications
  • 3. University of Chicago
  • 4. Peng Cheng Laboratory

Description

The prior work on natural language inference (NLI) debiasing mainly targets at one or few known biases while not necessarily making the models more robust.In this paper, we focus on the model-agnostic debiasing strategies and explore how to (or is it possible to) make the NLI models robust to multiple distinct adversarial attacks while keeping or even strengthening the models' generalization power.We firstly benchmark prevailing neural NLI models including pretrained ones on various adversarial datasets.We then try to combat distinct known biases by modifying a mixture of experts (MoE) ensemble method (Clark et al., 2019) and show that it's nontrivial to mitigate multiple NLI biases at the same time, and that model-level ensemble method outperforms MoE ensemble method.We also perform data augmentation including text swap, word substitution and paraphrase and prove its efficiency in combating various (though not all) adversarial attacks at the same time.Finally, we investigate several methods to merge heterogeneous training data (1.35M) and perform model ensembling, which are straightforward but effective to strengthen NLI models.

⚠️ This is an automatic machine translation with an accuracy of 90-95%

Translated Description (Arabic)

إن العمل السابق على الاستدلال اللغوي الطبيعي (NLI) الذي يستهدف بشكل أساسي تحيزًا واحدًا أو عددًا قليلاً من التحيزات المعروفة مع عدم جعل النماذج أكثر قوة بالضرورة. في هذه الورقة، نركز على استراتيجيات الاستدلال اللاإرادي للنماذج ونستكشف كيفية (أو هل من الممكن) جعل نماذج الاستدلال اللغوي الطبيعي قوية أمام هجمات عدائية متميزة متعددة مع الحفاظ على أو حتى تعزيز قوة التعميم للنماذج. نحن أولاً نقيس نماذج الاستدلال العصبي العصبية السائدة بما في ذلك النماذج المدربة مسبقًا على مجموعات بيانات عدائية مختلفة. ثم نحاول مكافحة التحيزات المعروفة المميزة من خلال تعديل مزيج من طريقة مجموعة الخبراء (MoE) (كلارك وآخرون، 2019) وإظهار أنه من غير البسيط التخفيف من تحيزات NLI المتعددة في نفس الوقت، وأن طريقة المجموعة على مستوى النموذج تتفوق على طريقة مجموعة وزارة التربية والتعليم. نحن أيضًا نقوم بإجراء زيادة البيانات بما في ذلك تبديل النص واستبدال الكلمات وإعادة الصياغة وإثبات فعاليتها في مكافحة مختلف (على الرغم من عدم وجود جميع الهجمات العدائية) في نفس الوقت. نحن نحقق في العديد من طرق دمج البيانات (1.35) ونقوم بتجميع النماذج الفعالة.

Translated Description (French)

Les travaux antérieurs sur l'inférence du langage naturel (INL) débiaisent principalement sur un ou plusieurs biais connus tout en ne rendant pas nécessairement les modèles plus robustes.Dans cet article, nous nous concentrons sur les stratégies de débiaisage diagnostiques du modèle et explorons comment (ou est-il possible de) rendre les modèles INL robustes à plusieurs attaques contradictoires distinctes tout en conservant ou même en renforçant le pouvoir de généralisation des modèles.Nous comparons d'abord les modèles INL neuronaux dominants, y compris ceux préformés, sur divers ensembles de données contradictoires.Nous essayons ensuite de combattre les biais connus distincts en modifiant une méthode d'ensemble mixte d'experts (MdE) (Clark et al., 2019) et montrons qu'il n'est pas difficile d'atténuer plusieurs biais INL en même temps, et que la méthode d'ensemble au niveau du modèle surpasse la méthode d'ensemble MdE.Nous effectuons également une augmentation des données, y compris un échange de texte, une substitution de mots et une paraphrase, et prouvons son efficacité dans la lutte contre diverses (mais pas toutes) attaques contradictoires en même temps.Enfin, nous étudions plusieurs méthodes pour fusionner des données d'entraînement hétérogènes (1,35M) et effectuer un assemblage de modèles, qui sont simples mais efficaces pour renforcer les modèles INL.

Translated Description (Spanish)

El trabajo previo sobre el sesgo de la inferencia del lenguaje natural (NLI) apunta principalmente a uno o pocos sesgos conocidos sin necesariamente hacer que los modelos sean más robustos. En este documento, nos centramos en las estrategias de sesgo agnóstico del modelo y exploramos cómo (o es posible) hacer que los modelos NLI sean robustos para múltiples ataques adversarios distintos mientras se mantiene o incluso se fortalece el poder de generalización de los modelos. En primer lugar, comparamos los modelos NLI neuronales prevalecientes, incluidos los preentrenados en varios conjuntos de datos adversarios. Luego tratamos de combatir sesgos conocidos distintos modificando una mezcla de expertos (MoE) método de ensamble (Clark et al., 2019) y demostramos que no es trivial mitigar múltiples sesgos NLI al mismo tiempo, y que el método de ensamble a nivel de modelo supera al método de ensamble MoE. También realizamos el aumento de datos, incluido el intercambio de texto, la sustitución de palabras y la paráfrasis, y demostramos su eficiencia para combatir varios (aunque no todos) los ataques adversarios al mismo tiempo. Finalmente, investigamos varios métodos para fusionar datos de entrenamiento heterogéneos (1.35M) y realizar el ensamble de modelos, que son sencillos pero efectivos para fortalecer los modelos NLI.

Files

2020.conll-1.48.pdf.pdf

Files (226 Bytes)

⚠️ Please wait a few minutes before your translated files are ready ⚠️ Note: Some files might be protected thus translations might not work.
Name Size Download all
md5:5360980bad11bf9723da89687501effc
226 Bytes
Preview Download

Additional details

Additional titles

Translated title (Arabic)
دراسة تجريبية حول استراتيجيات إزالة التحيز النموذجية للاستدلال القوي للغة الطبيعية
Translated title (French)
An Empirical Study on Model-agnostic Debiasing Strategies for Robust Natural Language Inference
Translated title (Spanish)
Un estudio empírico sobre estrategias de debiasing independientes de modelos para la inferencia robusta del lenguaje natural

Identifiers

Other
https://openalex.org/W3101853775
DOI
10.18653/v1/2020.conll-1.48

GreSIS Basics Section

Is Global South Knowledge
Yes
Country
China

References

  • https://openalex.org/W1840435438
  • https://openalex.org/W2130158090
  • https://openalex.org/W2250539671
  • https://openalex.org/W2251869843
  • https://openalex.org/W2296076036
  • https://openalex.org/W2413794162
  • https://openalex.org/W2560730294
  • https://openalex.org/W2608787653
  • https://openalex.org/W2739505524
  • https://openalex.org/W2739810148
  • https://openalex.org/W2798665661
  • https://openalex.org/W2888120268
  • https://openalex.org/W2888491130
  • https://openalex.org/W2889468083
  • https://openalex.org/W2890939561
  • https://openalex.org/W2945735543
  • https://openalex.org/W2950470622
  • https://openalex.org/W2951286828
  • https://openalex.org/W2951568144
  • https://openalex.org/W2962736243
  • https://openalex.org/W2962739339
  • https://openalex.org/W2962843521
  • https://openalex.org/W2963096121
  • https://openalex.org/W2963126845
  • https://openalex.org/W2963197830
  • https://openalex.org/W2963341956
  • https://openalex.org/W2963542100
  • https://openalex.org/W2963846996
  • https://openalex.org/W2963918774
  • https://openalex.org/W2963957386
  • https://openalex.org/W2964150944
  • https://openalex.org/W2964212550
  • https://openalex.org/W2970019270
  • https://openalex.org/W2970295111
  • https://openalex.org/W2984256198
  • https://openalex.org/W2984812384
  • https://openalex.org/W3034850762
  • https://openalex.org/W4211148418