Defending Adversarial Examples by a Clipped Residual U-Net Model
- 1. University of Central Punjab
- 2. Information Technology University
- 3. COMSATS University Islamabad
- 4. University of Tabuk
Description
Deep learning-based systems have succeeded in many computer vision tasks. However, it is found that the latest study indicates that these systems are in danger in the presence of adversarial attacks. These attacks can quickly spoil deep learning models, e.g., different convolutional neural networks (CNNs), used in various computer vision tasks from image classification to object detection. The adversarial examples are carefully designed by injecting a slight perturbation into the clean images. The proposed CRU-Net defense model is inspired by state-of-the-art defense mechanisms such as MagNet defense, Generative Adversarial Network Defense, Deep Regret Analytic Generative Adversarial Networks Defense, Deep Denoising Sparse Autoencoder Defense, and Condtional Generattive Adversarial Network Defense. We have experimentally proved that our approach is better than previous defensive techniques. Our proposed CRU-Net model maps the adversarial image examples into clean images by eliminating the adversarial perturbation. The proposed defensive approach is based on residual and U-Net learning. Many experiments are done on the datasets MNIST and CIFAR10 to prove that our proposed CRU-Net defense model prevents adversarial example attacks in WhiteBox and BlackBox settings and improves the robustness of the deep learning algorithms especially in the computer vision field. We have also reported similarity (SSIM and PSNR) between the original and restored clean image examples by the proposed CRU-Net defense model.
Translated Descriptions
Translated Description (Arabic)
نجحت الأنظمة القائمة على التعلم العميق في العديد من مهام رؤية الكمبيوتر. ومع ذلك، تبين أن الدراسة الأخيرة تشير إلى أن هذه الأنظمة معرضة للخطر في ظل وجود هجمات عدائية. يمكن أن تفسد هذه الهجمات بسرعة نماذج التعلم العميق، على سبيل المثال، الشبكات العصبية الالتفافية المختلفة (CNNs)، المستخدمة في مهام رؤية الكمبيوتر المختلفة من تصنيف الصور إلى اكتشاف الكائنات. تم تصميم الأمثلة العدائية بعناية عن طريق حقن اضطراب طفيف في الصور النظيفة. نموذج CRU - Net الدفاعي المقترح مستوحى من أحدث آليات الدفاع مثل MagNet Defense، و Generative Adversarial Network Defense، و Deep Regret Analytic Generative Adversarial Networks Defense، و Deep Denoising Sparse Autoencoder Defense، و Condtional Generattive Adversarial Network Defense. لقد أثبتنا تجريبيا أن نهجنا أفضل من التقنيات الدفاعية السابقة. يرسم نموذج CRU - Net المقترح لدينا أمثلة الصور العدائية في صور نظيفة من خلال القضاء على الاضطراب العدائي. يعتمد النهج الدفاعي المقترح على التعلم المتبقي وشبكة U - Net. يتم إجراء العديد من التجارب على مجموعات البيانات MNIST و CIFAR10 لإثبات أن نموذجنا الدفاعي CRU - Net المقترح يمنع هجمات الأمثلة العدائية في إعدادات WhiteBox و BlackBox ويحسن متانة خوارزميات التعلم العميق خاصة في مجال رؤية الكمبيوتر. لقد أبلغنا أيضًا عن التشابه (SSIM و PSNR) بين أمثلة الصور النظيفة الأصلية والمستعادة بواسطة نموذج الدفاع CRU - Net المقترح.Translated Description (French)
Les systèmes basés sur l'apprentissage profond ont réussi de nombreuses tâches de vision par ordinateur. Cependant, il est constaté que la dernière étude indique que ces systèmes sont en danger en présence d'attaques contradictoires. Ces attaques peuvent rapidement gâcher les modèles d'apprentissage profond, par exemple, différents réseaux neuronaux convolutionnels (CNN), utilisés dans diverses tâches de vision par ordinateur, de la classification d'images à la détection d'objets. Les exemples contradictoires sont soigneusement conçus en injectant une légère perturbation dans les images nettes. Le modèle de défense CRU-Net proposé est inspiré par des mécanismes de défense de pointe tels que la défense MagNet, la défense du réseau antagoniste génératif, la défense du réseau antagoniste génératif analytique Deep Regret, la défense de l'auto-encodeur Sparse Deep Denoising et la défense du réseau antagoniste génératrice Condtional. Nous avons prouvé expérimentalement que notre approche est meilleure que les techniques défensives précédentes. Notre modèle CRU-Net proposé mappe les exemples d'images contradictoires en images propres en éliminant la perturbation contradictoire. L'approche défensive proposée est basée sur l'apprentissage résiduel et U-Net. De nombreuses expériences sont effectuées sur les ensembles de données MNIST et CIFAR10 pour prouver que notre modèle de défense CRU-Net proposé empêche les exemples d'attaques contradictoires dans les paramètres WhiteBox et BlackBox et améliore la robustesse des algorithmes d'apprentissage profond, en particulier dans le domaine de la vision par ordinateur. Nous avons également signalé une similitude (SSIM et PSNR) entre les exemples d'image propre d'origine et restaurée par le modèle de défense CRU-Net proposé.Translated Description (Spanish)
Los sistemas basados en el aprendizaje profundo han tenido éxito en muchas tareas de visión artificial. Sin embargo, se encuentra que el último estudio indica que estos sistemas están en peligro ante la presencia de ataques adversarios. Estos ataques pueden estropear rápidamente los modelos de aprendizaje profundo, por ejemplo, diferentes redes neuronales convolucionales (CNN), utilizadas en diversas tareas de visión artificial, desde la clasificación de imágenes hasta la detección de objetos. Los ejemplos contradictorios se diseñan cuidadosamente inyectando una ligera perturbación en las imágenes limpias. El modelo de defensa CRU-Net propuesto se inspira en mecanismos de defensa de vanguardia como la defensa MagNet, la defensa de redes adversarias generativas, la defensa de redes adversarias generativas analíticas de Deep Regret, la defensa de autocodificadores dispersos de Deep Denoising y la defensa de redes adversarias generativas condicionales. Hemos demostrado experimentalmente que nuestro enfoque es mejor que las técnicas defensivas anteriores. Nuestro modelo CRU-Net propuesto mapea los ejemplos de imágenes adversarias en imágenes limpias al eliminar la perturbación adversaria. El enfoque defensivo propuesto se basa en el aprendizaje residual y U-Net. Se realizan muchos experimentos en los conjuntos de datos MNIST y CIFAR10 para demostrar que nuestro modelo de defensa CRU-Net propuesto previene los ataques de ejemplo adversarios en la configuración de WhiteBox y BlackBox y mejora la solidez de los algoritmos de aprendizaje profundo, especialmente en el campo de la visión por ordenador. También hemos reportado similitudes (SSIM y PSNR) entre los ejemplos de imagen limpia original y restaurada por el modelo de defensa CRU-Net propuesto.Files
TSP_IASC_28810.pdf.pdf
Files
(2.8 MB)
Name | Size | Download all |
---|---|---|
md5:39819e6b33fa664fe352a90d0e0f34dc
|
2.8 MB | Preview Download |
Additional details
Additional titles
- Translated title (Arabic)
- الدفاع عن أمثلة الخصومة من خلال نموذج U - Net المتبقي المقطوع
- Translated title (French)
- Défendre des exemples contradictoires par un modèle U-Net résiduel tronqué
- Translated title (Spanish)
- Defensa de ejemplos contradictorios mediante un modelo U-Net residual recortado
Identifiers
- Other
- https://openalex.org/W4285791466
- DOI
- 10.32604/iasc.2023.028810
References
- https://openalex.org/W1901129140
- https://openalex.org/W2801438870
- https://openalex.org/W2898360562
- https://openalex.org/W2905227840
- https://openalex.org/W2911126749
- https://openalex.org/W2919115771
- https://openalex.org/W2962718684
- https://openalex.org/W2962952900
- https://openalex.org/W2963178695
- https://openalex.org/W2963374347
- https://openalex.org/W2969579839
- https://openalex.org/W2969915818
- https://openalex.org/W2986549955
- https://openalex.org/W2999917673
- https://openalex.org/W3001151456
- https://openalex.org/W3005912525
- https://openalex.org/W3080490018