Published January 1, 2023 | Version v1
Publication Open

Plug-and-Play Document Modules for Pre-trained Models

  • 1. Tsinghua University
  • 2. Peng Cheng Laboratory
  • 3. Renmin University of China
  • 4. Beijing Institute of Big Data Research
  • 5. Huawei Technologies (United Kingdom)

Description

Large-scale pre-trained models (PTMs) have been widely used in document-oriented NLP tasks, such as question answering.However, the encoding-task coupling requirement results in the repeated encoding of the same documents for different tasks and queries, which is highly computationally inefficient.To this end, we target to decouple document encoding from downstream tasks, and propose to represent each document as a plug-and-play document module, i.e., a document plugin, for PTMs (PlugD).By inserting document plugins into the backbone PTM for downstream tasks, we can encode a document one time to handle multiple tasks, which is more efficient than conventional encoding-task coupling methods that simultaneously encode documents and input queries using task-specific encoders.Extensive experiments on 8 datasets of 4 typical NLP tasks show that PlugD enables models to encode documents once and for all across different scenarios.Especially, PlugD can save 69% computational costs while achieving comparable performance to state-of-the-art encoding-task coupling methods.Additionally, we show that PlugD can serve as an effective post-processing way to inject knowledge into task-specific models, improving model performance without any additional model training.Our code and checkpoints can be found in https://github.com/thunlp/Document-Plugin.

⚠️ This is an automatic machine translation with an accuracy of 90-95%

Translated Description (Arabic)

تم استخدام النماذج واسعة النطاق المدربة مسبقًا (PTMs) على نطاق واسع في مهام البرمجة اللغوية العصبية الموجهة نحو المستندات، مثل الإجابة على الأسئلة. ومع ذلك، فإن متطلبات اقتران مهمة الترميز تؤدي إلى الترميز المتكرر لنفس المستندات للمهام والاستعلامات المختلفة، وهو أمر غير فعال حسابيًا إلى حد كبير. تحقيقا لهذه الغاية، نهدف إلى فصل ترميز المستند عن المهام النهائية، ونقترح تمثيل كل مستند كوحدة مستندات التوصيل والتشغيل، أي مكون إضافي للمستند، لـ PTMs (PlugD). عن طريق إدخال مكونات إضافية للمستند في العمود الفقري PTM للمهام النهائية، يمكننا ترميز مستند مرة واحدة للتعامل مع مهام متعددة، وهو أكثر كفاءة من طرق اقتران مهام الترميز التقليدية التي تقوم بترميز المستندات واستعلامات الإدخال في وقت واحد باستخدام أدوات ترميز خاصة بالمهام. تُظهر التجارب المكثفة على 8 مجموعات بيانات من 4 مهام البرمجة اللغوية العصبية النموذجية أن PlugD تمكن النماذج من ترميز المستندات مرة واحدة وإلى الأبد عبر سيناريوهات مختلفة. على وجه الخصوص، يمكن لـ PlugD توفير 69 ٪ من التكاليف الحسابية مع تحقيق أداء مماثل لأحدث طرق اقتران مهام الترميز. بالإضافة إلى ذلك، نوضح أن PlugD يمكن أن تكون بمثابة طريقة فعالة للمعالجة اللاحقة لضخ المعرفة في النماذج الخاصة بالمهام، وتحسين أداء النموذج دون أي نموذج التدريب. يمكن العثور على التعليمات البرمجية ونقاط التفتيش الخاصة بنا على https://github.com/thunlp/Document-Plugin.

Translated Description (French)

Les modèles préformés à grande échelle (PTM) ont été largement utilisés dans les tâches PNL axées sur les documents, telles que la réponse aux questions. Cependant, l'exigence de couplage encodage-tâche entraîne l'encodage répété des mêmes documents pour différentes tâches et requêtes, ce qui est très inefficace sur le plan informatique. À cette fin, nous visons à découpler l'encodage des documents des tâches en aval et proposons de représenter chaque document comme un module de document plug-and-play, c'est-à-dire un plug-in de document, pour les PTM (PlugD). En insérant des plugins de document dans le backbone PTM pour les tâches en aval, nous pouvons coder un document une seule fois pour gérer plusieurs tâches, ce qui est plus efficace que les méthodes de couplage de tâches de codage conventionnelles qui codent simultanément des documents et des requêtes d'entrée à l'aide d'encodeurs spécifiques à la tâche. Des expériences approfondies sur 8 ensembles de données de 4 tâches NLP typiques montrent que PlugD permet aux modèles de coder des documents une fois pour toutes dans différents scénarios. En particulier, PlugD peut économiser 69 % des coûts de calcul tout en obtenant des performances comparables aux méthodes de couplage de tâches de codage à la pointe de la technologie. En outre, nous montrons que PlugD peut servir de moyen de post-traitement efficace pour injecter des connaissances dans des modèles spécifiques à la tâche, améliorant les performances du modèle sans aucune autre modèle de formation.Notre code et nos points de contrôle se trouvent sur https://github.com/thunlp/Document-Plugin.

Translated Description (Spanish)

Los modelos pre-entrenados a gran escala (PTM) se han utilizado ampliamente en tareas de PNL orientadas a documentos, como la respuesta a preguntas. Sin embargo, el requisito de acoplamiento de tareas de codificación da como resultado la codificación repetida de los mismos documentos para diferentes tareas y consultas, lo que es altamente ineficiente desde el punto de vista computacional. Con este fin, nuestro objetivo es desacoplar la codificación de documentos de las tareas posteriores y proponemos representar cada documento como un módulo de documentos plug-and-play, es decir, un complemento de documentos, para las PTM (PlugD). Al insertar complementos de documentos en la PTM troncal para las tareas posteriores, podemos codificar un documento una sola vez para manejar múltiples tareas, lo cual es más eficiente que los métodos convencionales de acoplamiento de tareas de codificación que codifican simultáneamente documentos y consultas de entrada utilizando codificadores específicos de tareas. Experimentos exhaustivos en 8 conjuntos de datos de 4 tareas típicas de PNL muestran que PlugD permite que los modelos codifiquen documentos de una vez por todas en diferentes escenarios. Especialmente, PlugD puede ahorrar un 69% de costos computacionales al tiempo que logra un rendimiento comparable a los métodos de acoplamiento de tareas de codificación de última generación. Además, mostramos que PlugD puede servir como una forma efectiva de posprocesamiento para inyectar conocimiento en modelos específicos de tareas, mejorando el rendimiento del modelo sin ningún modelo de formación. Nuestro código y puntos de control se pueden encontrar en https://github.com/thunlp/Document-Plugin.

Files

2023.acl-long.875.pdf.pdf

Files (957.7 kB)

⚠️ Please wait a few minutes before your translated files are ready ⚠️ Note: Some files might be protected thus translations might not work.
Name Size Download all
md5:60da5ca9b0c257e768eedc2c31e17ca4
957.7 kB
Preview Download

Additional details

Additional titles

Translated title (Arabic)
وحدات مستندات التوصيل والتشغيل للنماذج المدربة مسبقًا
Translated title (French)
Modules de documents Plug-and-Play pour les modèles pré-entraînés
Translated title (Spanish)
Módulos de documentos Plug-and-Play para modelos preentrenados

Identifiers

Other
https://openalex.org/W4385571865
DOI
10.18653/v1/2023.acl-long.875

GreSIS Basics Section

Is Global South Knowledge
Yes
Country
China

References

  • https://openalex.org/W2163922914
  • https://openalex.org/W2250539671
  • https://openalex.org/W2889787757
  • https://openalex.org/W2912924812
  • https://openalex.org/W2950339735
  • https://openalex.org/W2950681488
  • https://openalex.org/W2953356739
  • https://openalex.org/W2962739339
  • https://openalex.org/W2962881743
  • https://openalex.org/W2962985038
  • https://openalex.org/W2963339397
  • https://openalex.org/W2963341956
  • https://openalex.org/W2963918774
  • https://openalex.org/W2963961878
  • https://openalex.org/W2970476646
  • https://openalex.org/W2970641574
  • https://openalex.org/W3044438666
  • https://openalex.org/W3085139254
  • https://openalex.org/W3099700870
  • https://openalex.org/W3101498587
  • https://openalex.org/W3102659883
  • https://openalex.org/W3102924767
  • https://openalex.org/W3105216938
  • https://openalex.org/W3105601320
  • https://openalex.org/W3118485687
  • https://openalex.org/W3152884768
  • https://openalex.org/W3153675281
  • https://openalex.org/W3156636935
  • https://openalex.org/W3169283738
  • https://openalex.org/W3174770825
  • https://openalex.org/W3175604467
  • https://openalex.org/W3176119108
  • https://openalex.org/W3176828726
  • https://openalex.org/W3198659451
  • https://openalex.org/W4205991051
  • https://openalex.org/W4206232983
  • https://openalex.org/W4206292552
  • https://openalex.org/W4224308101
  • https://openalex.org/W4283734749
  • https://openalex.org/W4285077633
  • https://openalex.org/W4285253555
  • https://openalex.org/W4287888691
  • https://openalex.org/W4294808066
  • https://openalex.org/W4318719006
  • https://openalex.org/W4376654497