Published July 19, 2022 | Version v1
Publication Open

Quantization Framework for Fast Spiking Neural Networks

  • 1. University of Manchester
  • 2. Beijing Academy of Artificial Intelligence
  • 3. Peking University

Description

Compared with artificial neural networks (ANNs), spiking neural networks (SNNs) offer additional temporal dynamics with the compromise of lower information transmission rates through the use of spikes. When using an ANN-to-SNN conversion technique there is a direct link between the activation bit precision of the artificial neurons and the time required by the spiking neurons to represent the same bit precision. This implicit link suggests that techniques used to reduce the activation bit precision of ANNs, such as quantization, can help shorten the inference latency of SNNs. However, carrying ANN quantization knowledge over to SNNs is not straightforward, as there are many fundamental differences between them. Here we propose a quantization framework for fast SNNs (QFFS) to overcome these difficulties, providing a method to build SNNs with enhanced latency and reduced loss of accuracy relative to the baseline ANN model. In this framework, we promote the compatibility of ANN information quantization techniques with SNNs, and suppress "occasional noise" to minimize accuracy loss. The resulting SNNs overcome the accuracy degeneration observed previously in SNNs with a limited number of time steps and achieve an accuracy of 70.18% on ImageNet within 8 time steps. This is the first demonstration that SNNs built by ANN-to-SNN conversion can achieve a similar latency to SNNs built by direct training.

⚠️ This is an automatic machine translation with an accuracy of 90-95%

Translated Description (Arabic)

بالمقارنة مع الشبكات العصبية الاصطناعية (ANNs)، توفر الشبكات العصبية المتصاعدة (SNNs) ديناميكيات زمنية إضافية مع المساومة على انخفاض معدلات نقل المعلومات من خلال استخدام المسامير. عند استخدام تقنية التحويل من ANN إلى SNN، هناك صلة مباشرة بين دقة بت التنشيط للخلايا العصبية الاصطناعية والوقت الذي تتطلبه الخلايا العصبية المرتفعة لتمثيل نفس دقة البت. يشير هذا الرابط الضمني إلى أن التقنيات المستخدمة لتقليل دقة بت التنشيط لـ ANNs، مثل التكميم، يمكن أن تساعد في تقصير زمن انتقال الاستدلال لـ SNNs. ومع ذلك، فإن نقل معرفة تكميم ANN إلى SNNs ليس بالأمر السهل، حيث توجد العديد من الاختلافات الأساسية بينهما. نقترح هنا إطارًا كميًا لشبكات SNN السريعة (QFFS) للتغلب على هذه الصعوبات، مما يوفر طريقة لبناء شبكات SNN مع وقت استجابة محسن وتقليل فقدان الدقة بالنسبة لنموذج ANN الأساسي. في هذا الإطار، نعزز توافق تقنيات تكميم معلومات ANN مع SNNs، ونقمع "الضوضاء العرضية" لتقليل فقدان الدقة. تتغلب SNNs الناتجة على انحطاط الدقة الذي لوحظ سابقًا في SNNs بعدد محدود من الخطوات الزمنية وتحقق دقة 70.18 ٪ على ImageNet في غضون 8 خطوات زمنية. هذا هو أول دليل على أن SNNs التي تم بناؤها بواسطة تحويل ANN إلى SNN يمكن أن تحقق زمن انتقال مشابه لـ SNNs التي تم بناؤها عن طريق التدريب المباشر.

Translated Description (French)

Par rapport aux réseaux de neurones artificiels (RNA), les réseaux de neurones à pointes (SNN) offrent une dynamique temporelle supplémentaire avec le compromis de taux de transmission d'informations plus faibles grâce à l'utilisation de pointes. Lors de l'utilisation d'une technique de conversion ANN en SNN, il existe un lien direct entre la précision des bits d'activation des neurones artificiels et le temps nécessaire aux neurones dopants pour représenter la même précision des bits. Ce lien implicite suggère que les techniques utilisées pour réduire la précision des bits d'activation des RNA, telles que la quantification, peuvent aider à raccourcir la latence d'inférence des RNS. Cependant, transférer les connaissances de quantification ANN aux SNN n'est pas simple, car il existe de nombreuses différences fondamentales entre eux. Nous proposons ici un cadre de quantification pour les SNN rapides (QFFS) pour surmonter ces difficultés, fournissant une méthode pour construire des SNN avec une latence améliorée et une perte de précision réduite par rapport au modèle ANN de référence. Dans ce cadre, nous favorisons la compatibilité des techniques de quantification des informations ANN avec les SNN, et supprimons les « bruits occasionnels » pour minimiser les pertes de précision. Les SNN résultants surmontent la dégénérescence de précision observée précédemment dans les SNN avec un nombre limité de pas de temps et atteignent une précision de 70,18 % sur ImageNet en 8 pas de temps. Il s'agit de la première démonstration que les SNN construits par conversion ANN en SNN peuvent atteindre une latence similaire à celle des SNN construits par formation directe.

Translated Description (Spanish)

En comparación con las redes neuronales artificiales (RNA), las redes neuronales de picos (SNN) ofrecen una dinámica temporal adicional con el compromiso de tasas de transmisión de información más bajas mediante el uso de picos. Cuando se utiliza una técnica de conversión de ANN a SNN, existe un vínculo directo entre la precisión del bit de activación de las neuronas artificiales y el tiempo requerido por las neuronas de punta para representar la misma precisión del bit. Este enlace implícito sugiere que las técnicas utilizadas para reducir la precisión de los bits de activación de las Ann, como la cuantificación, pueden ayudar a acortar la latencia de inferencia de las SNN. Sin embargo, llevar el conocimiento de cuantificación de ANN a las SNN no es sencillo, ya que hay muchas diferencias fundamentales entre ellas. Aquí proponemos un marco de cuantificación para SNN rápidas (QFFS) para superar estas dificultades, proporcionando un método para construir SNN con latencia mejorada y pérdida reducida de precisión en relación con el modelo ANN de referencia. En este marco, promovemos la compatibilidad de las técnicas de cuantificación de información ANN con las SNN y suprimimos el "ruido ocasional" para minimizar la pérdida de precisión. Los SNN resultantes superan la degeneración de la precisión observada anteriormente en los SNN con un número limitado de pasos de tiempo y logran una precisión del 70,18% en ImageNet en 8 pasos de tiempo. Esta es la primera demostración de que las SNN construidas por conversión de ANN a SNN pueden lograr una latencia similar a las SNN construidas por entrenamiento directo.

Files

pdf.pdf

Files (1.5 MB)

⚠️ Please wait a few minutes before your translated files are ready ⚠️ Note: Some files might be protected thus translations might not work.
Name Size Download all
md5:52fd3f2e7bf8352019f87cd9278540c7
1.5 MB
Preview Download

Additional details

Additional titles

Translated title (Arabic)
إطار التكميم للشبكات العصبية سريعة الارتفاع
Translated title (French)
Cadre de quantification pour les réseaux de neurones à pic rapide
Translated title (Spanish)
Marco de cuantificación para redes neuronales de punta rápida

Identifiers

Other
https://openalex.org/W4286221450
DOI
10.3389/fnins.2022.918793

GreSIS Basics Section

Is Global South Knowledge
Yes
Country
China

References

  • https://openalex.org/W1645800954
  • https://openalex.org/W2140886546
  • https://openalex.org/W2775079417
  • https://openalex.org/W2964338223
  • https://openalex.org/W3008515144
  • https://openalex.org/W3037354233
  • https://openalex.org/W3045614026
  • https://openalex.org/W3047826181
  • https://openalex.org/W3081141044
  • https://openalex.org/W3124546450
  • https://openalex.org/W3126711481
  • https://openalex.org/W3130708689
  • https://openalex.org/W3164982922
  • https://openalex.org/W3169215542
  • https://openalex.org/W3188250490
  • https://openalex.org/W3199866483
  • https://openalex.org/W3200038452
  • https://openalex.org/W3200729277
  • https://openalex.org/W3205392725
  • https://openalex.org/W3213590062
  • https://openalex.org/W3214982345
  • https://openalex.org/W4323708667
  • https://openalex.org/W4380727819