Published January 1, 2018 | Version v1
Publication Open

Global Encoding for Abstractive Summarization

  • 1. Peking University
  • 2. King University

Description

In neural abstractive summarization, the conventional sequence-to-sequence (seq2seq) model often suffers from repetition and semantic irrelevance.To tackle the problem, we propose a global encoding framework, which controls the information flow from the encoder to the decoder based on the global information of the source context.It consists of a convolutional gated unit to perform global encoding to improve the representations of the source-side information.Evaluations on the LCSTS and the English Gigaword both demonstrate that our model outperforms the baseline models, and the analysis shows that our model is capable of generating summary of higher quality and reducing repetition 1 .

⚠️ This is an automatic machine translation with an accuracy of 90-95%

Translated Description (Arabic)

في التلخيص التجريدي العصبي، غالبًا ما يعاني نموذج التسلسل إلى التسلسل التقليدي (seq2seq) من التكرار وعدم الأهمية الدلالية. لمعالجة المشكلة، نقترح إطارًا عالميًا للتشفير، يتحكم في تدفق المعلومات من جهاز التشفير إلى جهاز فك التشفير استنادًا إلى المعلومات العالمية لسياق المصدر. يتكون من وحدة مسورة تلافيفية لإجراء الترميز العالمي لتحسين تمثيلات معلومات جانب المصدر. تثبت التقييمات على LCSTS و Gigaword الإنجليزية أن نموذجنا يتفوق على نماذج خط الأساس، ويظهر التحليل أن نموذجنا قادر على توليد ملخص بجودة أعلى وتقليل التكرار 1 .

Translated Description (French)

Dans la synthèse abstraite neuronale, le modèle conventionnel séquence à séquence (seq2seq) souffre souvent de répétition et de non-pertinence sémantique. Pour résoudre le problème, nous proposons un cadre de codage global, qui contrôle le flux d'informations de l'encodeur au décodeur en fonction des informations globales du contexte source. Il consiste en une unité commandée par convolution pour effectuer un codage global afin d'améliorer les représentations des informations côté source. Les évaluations sur le LCSTS et le Gigaword anglais démontrent toutes deux que notre modèle surpasse les modèles de base, et l'analyse montre que notre modèle est capable de générer un résumé de meilleure qualité et de réduire la répétition 1 .

Translated Description (Spanish)

En el resumen abstractivo neuronal, el modelo convencional de secuencia a secuencia (seq2seq) a menudo sufre de repetición e irrelevancia semántica. Para abordar el problema, proponemos un marco de codificación global, que controla el flujo de información desde el codificador al decodificador en función de la información global del contexto de origen. Consiste en una unidad cerrada convolucional para realizar una codificación global para mejorar las representaciones de la información del lado de origen. Las evaluaciones en el LCSTS y el Gigaword en inglés demuestran que nuestro modelo supera a los modelos de referencia, y el análisis muestra que nuestro modelo es capaz de generar un resumen de mayor calidad y reducir la repetición 1 .

Files

P18-2027.pdf.pdf

Files (226 Bytes)

⚠️ Please wait a few minutes before your translated files are ready ⚠️ Note: Some files might be protected thus translations might not work.
Name Size Download all
md5:5360980bad11bf9723da89687501effc
226 Bytes
Preview Download

Additional details

Additional titles

Translated title (Arabic)
الترميز العالمي للتلخيص التجريدي
Translated title (French)
Encodage global pour une synthèse abstraite
Translated title (Spanish)
Codificación global para resumen abstracto

Identifiers

Other
https://openalex.org/W2963970666
DOI
10.18653/v1/p18-2027

GreSIS Basics Section

Is Global South Knowledge
Yes
Country
China

References

  • https://openalex.org/W1665214252
  • https://openalex.org/W1753482797
  • https://openalex.org/W1902237438
  • https://openalex.org/W2028339364
  • https://openalex.org/W2081265723
  • https://openalex.org/W2083451366
  • https://openalex.org/W2103164118
  • https://openalex.org/W2130942839
  • https://openalex.org/W2157331557
  • https://openalex.org/W2183341477
  • https://openalex.org/W2293778248
  • https://openalex.org/W2467173223
  • https://openalex.org/W2561360547
  • https://openalex.org/W2766686544
  • https://openalex.org/W2962965405
  • https://openalex.org/W2962974924
  • https://openalex.org/W2962996600
  • https://openalex.org/W2963403868
  • https://openalex.org/W2963929190
  • https://openalex.org/W2963978266
  • https://openalex.org/W2964121744
  • https://openalex.org/W2964165364
  • https://openalex.org/W2964308564
  • https://openalex.org/W2964324871