Published January 1, 2021 | Version v1
Publication Open

A Novel Deep-Learning Model for Automatic Detection and Classification of Breast Cancer Using the Transfer-Learning Technique

  • 1. Kafrelsheikh University
  • 2. Menoufia University
  • 3. Wenzhou University

Description

Breast cancer (BC) is one of the primary causes of cancer death among women. Early detection of BC allows patients to receive appropriate treatment, thus increasing the possibility of survival. In this work, a new deep-learning (DL) model based on the transfer-learning (TL) technique is developed to efficiently assist in the automatic detection and diagnosis of the BC suspected area based on two techniques namely 80-20 and cross-validation. DL architectures are modeled to be problem-specific. TL uses the knowledge gained during solving one problem in another relevant problem. In the proposed model, the features are extracted from the mammographic image analysis- society (MIAS) dataset using a pre-trained convolutional neural network (CNN) architecture such as Inception V3, ResNet50, Visual Geometry Group networks (VGG)-19, VGG-16, and Inception-V2 ResNet. Six evaluation metrics for evaluating the performance of the proposed model in terms of accuracy, sensitivity, specificity, precision, F-score, and area under the ROC curve (AUC) has been chosen. Experimental results show that the TL of the VGG16 model is powerful for BC diagnosis by classifying the mammogram breast images with overall accuracy, sensitivity, specificity, precision, F-score, and AUC of 98.96%, 97.83%, 99.13%, 97.35%, 97.66%, and 0.995, respectively for 80-20 method and 98.87%, 97.27%, 98.2%, 98.84%, 98.04%, and 0.993 for 10-fold cross-validation method.

⚠️ This is an automatic machine translation with an accuracy of 90-95%

Translated Description (Arabic)

سرطان الثدي (BC) هو أحد الأسباب الرئيسية للوفاة بالسرطان بين النساء. يسمح الكشف المبكر عن BC للمرضى بتلقي العلاج المناسب، مما يزيد من إمكانية البقاء على قيد الحياة. في هذا العمل، تم تطوير نموذج جديد للتعلم العميق (DL) يعتمد على تقنية النقل والتعلم (TL) للمساعدة بكفاءة في الكشف والتشخيص التلقائي للمنطقة المشتبه بها في BC بناءً على تقنيتين هما 80-20 والتحقق المتبادل. تم تصميم بنيات DL لتكون خاصة بالمشكلة. يستخدم قائد الفريق المعرفة المكتسبة أثناء حل مشكلة واحدة في مشكلة أخرى ذات صلة. في النموذج المقترح، يتم استخراج الميزات من مجموعة بيانات تحليل صورة الثدي الشعاعية (MIAS) باستخدام بنية الشبكة العصبية الالتفافية (CNN) المدربة مسبقًا مثل Inception V3 و ResNet50 وشبكات مجموعة الهندسة البصرية (VGG)-19 و VGG -16 و Inception - V2 ResNet. تم اختيار ستة مقاييس تقييم لتقييم أداء النموذج المقترح من حيث الدقة والحساسية والنوعية والدقة ودرجة F والمنطقة تحت منحنى ROC (AUC). تظهر النتائج التجريبية أن TL لنموذج VGG16 قوي لتشخيص BC من خلال تصنيف صور الثدي بالأشعة السينية بدقة وحساسية وخصوصية ودقة و F - score و AUC بنسبة 98.96 ٪ و 97.83 ٪ و 99.13 ٪ و 97.35 ٪ و 97.66 ٪ و 0.995 على التوالي لطريقة 80-20 و 98.87 ٪ و 97.27 ٪ و 98.2 ٪ و 98.84 ٪ و 98.04 ٪ و 0.993 لطريقة التحقق المتبادل 10 أضعاف.

Translated Description (French)

Le cancer du sein (BC) est l'une des principales causes de décès par cancer chez les femmes. La détection précoce de la CB permet aux patients de recevoir un traitement approprié, augmentant ainsi les chances de survie. Dans ce travail, un nouveau modèle d'apprentissage profond (DL) basé sur la technique d'apprentissage par transfert (TL) est développé pour aider efficacement à la détection et au diagnostic automatiques de la zone suspectée de BC sur la base de deux techniques, à savoir 80-20 et la validation croisée. Les architectures DL sont modélisées pour être spécifiques aux problèmes. TL utilise les connaissances acquises lors de la résolution d'un problème dans un autre problème pertinent. Dans le modèle proposé, les caractéristiques sont extraites de l'ensemble de données de la société d'analyse d'images mammographiques (SIAM) à l'aide d'une architecture de réseau neuronal convolutif (CNN) pré-entraînée telle que Inception V3, ResNet50, les réseaux du groupe de géométrie visuelle (VGG)-19, VGG-16 et Inception-V2 ResNet. Six mesures d'évaluation pour évaluer la performance du modèle proposé en termes d'exactitude, de sensibilité, de spécificité, de précision, de score F et d'aire sous la courbe roc (ASC) ont été choisies. Les résultats expérimentaux montrent que le TL du modèle VGG16 est puissant pour le diagnostic de la CB en classant les images mammographiques du sein avec une précision globale, une sensibilité, une spécificité, une précision, un score F et une ASC de 98,96 %, 97,83 %, 99,13 %, 97,35 %, 97,66 % et 0,995, respectivement pour la méthode 80-20 et 98,87 %, 97,27 %, 98,2 %, 98,84 %, 98,04 % et 0,993 pour la méthode de validation croisée 10 fois.

Translated Description (Spanish)

El cáncer de mama (BC) es una de las principales causas de muerte por cáncer entre las mujeres. La detección temprana de BC permite a los pacientes recibir el tratamiento adecuado, aumentando así la posibilidad de supervivencia. En este trabajo, se desarrolla un nuevo modelo de aprendizaje profundo (DL) basado en la técnica de aprendizaje por transferencia (TL) para ayudar de manera eficiente en la detección automática y el diagnóstico del área sospechosa de BC basado en dos técnicas, a saber, 80-20 y validación cruzada. Las arquitecturas DL se modelan para ser específicas del problema. TL utiliza el conocimiento adquirido durante la resolución de un problema en otro problema relevante. En el modelo propuesto, las características se extraen del conjunto de datos de la sociedad de análisis DE imágenes mamográficas (mias) utilizando una arquitectura de red neuronal convolucional (CNN) previamente entrenada, como Inception V3, ResNet50, Visual Geometry Group networks (VGG)-19, VGG-16 e Inception-V2 ResNet. Se han elegido seis métricas de evaluación para evaluar el rendimiento del modelo propuesto en términos de precisión, sensibilidad, especificidad, precisión, puntaje F y área bajo la curva Roc (AUC). Los resultados experimentales muestran que el TL del modelo VGG16 es poderoso para el diagnóstico de BC al clasificar las imágenes mamarias de mamografía con precisión general, sensibilidad, especificidad, precisión, puntaje F y AUC de 98.96%, 97.83%, 99.13%, 97.35%, 97.66% y 0.995, respectivamente, para el método 80-20 y 98.87%, 97.27%, 98.2%, 98.84%, 98.04% y 0.993 para el método de validación cruzada de 10 veces.

Files

09427477.pdf.pdf

Files (245 Bytes)

⚠️ Please wait a few minutes before your translated files are ready ⚠️ Note: Some files might be protected thus translations might not work.
Name Size Download all
md5:09b953834c337e7cc3bdd5ff3dbdc1b4
245 Bytes
Preview Download

Additional details

Additional titles

Translated title (Arabic)
نموذج جديد للتعلم العميق للكشف التلقائي عن سرطان الثدي وتصنيفه باستخدام تقنية التعلم الانتقالي
Translated title (French)
Un nouveau modèle d'apprentissage en profondeur pour la détection et la classification automatiques du cancer du sein à l'aide de la technique d'apprentissage par transfert
Translated title (Spanish)
Un nuevo modelo de aprendizaje profundo para la detección y clasificación automáticas del cáncer de mama mediante la técnica de aprendizaje por transferencia

Identifiers

Other
https://openalex.org/W3163936961
DOI
10.1109/access.2021.3079204

GreSIS Basics Section

Is Global South Knowledge
Yes
Country
Egypt

References

  • https://openalex.org/W1513827060
  • https://openalex.org/W1970271356
  • https://openalex.org/W1973128318
  • https://openalex.org/W1978353185
  • https://openalex.org/W1980287119
  • https://openalex.org/W1988199853
  • https://openalex.org/W1990517601
  • https://openalex.org/W2003802155
  • https://openalex.org/W2014286124
  • https://openalex.org/W2017522944
  • https://openalex.org/W2041820331
  • https://openalex.org/W2046445845
  • https://openalex.org/W2049623605
  • https://openalex.org/W2052850351
  • https://openalex.org/W2061497758
  • https://openalex.org/W2097843722
  • https://openalex.org/W2170797011
  • https://openalex.org/W2176872390
  • https://openalex.org/W2178768394
  • https://openalex.org/W2183341477
  • https://openalex.org/W2194775991
  • https://openalex.org/W2213782059
  • https://openalex.org/W2232748179
  • https://openalex.org/W2283921858
  • https://openalex.org/W2293269630
  • https://openalex.org/W2298071216
  • https://openalex.org/W2301938770
  • https://openalex.org/W2395579298
  • https://openalex.org/W2413757304
  • https://openalex.org/W2471411072
  • https://openalex.org/W2526853616
  • https://openalex.org/W2530842809
  • https://openalex.org/W2540115786
  • https://openalex.org/W2551042279
  • https://openalex.org/W2551920077
  • https://openalex.org/W2571743746
  • https://openalex.org/W2577696902
  • https://openalex.org/W2590739781
  • https://openalex.org/W2593052999
  • https://openalex.org/W2602554322
  • https://openalex.org/W2613771876
  • https://openalex.org/W2615743202
  • https://openalex.org/W2711636288
  • https://openalex.org/W2736143549
  • https://openalex.org/W2746697180
  • https://openalex.org/W2765169965
  • https://openalex.org/W2765835127
  • https://openalex.org/W2767016695
  • https://openalex.org/W2767547957
  • https://openalex.org/W2778801251
  • https://openalex.org/W2785655677
  • https://openalex.org/W2789578803
  • https://openalex.org/W2798462210
  • https://openalex.org/W2801410648
  • https://openalex.org/W2802685229
  • https://openalex.org/W2803478834
  • https://openalex.org/W2807381864
  • https://openalex.org/W2808797111
  • https://openalex.org/W2884104110
  • https://openalex.org/W2886399398
  • https://openalex.org/W2887171350
  • https://openalex.org/W2892961888
  • https://openalex.org/W2899459625
  • https://openalex.org/W2900144270
  • https://openalex.org/W2901864827
  • https://openalex.org/W2903364434
  • https://openalex.org/W2906097200
  • https://openalex.org/W2909251254
  • https://openalex.org/W2914010220
  • https://openalex.org/W2915733343
  • https://openalex.org/W2926848333
  • https://openalex.org/W2926960342
  • https://openalex.org/W2928842276
  • https://openalex.org/W2945036947
  • https://openalex.org/W2946361138
  • https://openalex.org/W2960871125
  • https://openalex.org/W2962004477
  • https://openalex.org/W2969607850
  • https://openalex.org/W2972057671
  • https://openalex.org/W2972979332
  • https://openalex.org/W2990991805
  • https://openalex.org/W2998383808
  • https://openalex.org/W3004970330
  • https://openalex.org/W3005789239
  • https://openalex.org/W3008024764
  • https://openalex.org/W3009928129
  • https://openalex.org/W3011794532
  • https://openalex.org/W3015383397
  • https://openalex.org/W3020819546
  • https://openalex.org/W3022701104
  • https://openalex.org/W3026089740
  • https://openalex.org/W3033003249
  • https://openalex.org/W3042414979
  • https://openalex.org/W3043165726
  • https://openalex.org/W3046492425
  • https://openalex.org/W3084433735
  • https://openalex.org/W3084522097
  • https://openalex.org/W3090353365
  • https://openalex.org/W3092314298
  • https://openalex.org/W3094221378
  • https://openalex.org/W3097900310
  • https://openalex.org/W3098105350
  • https://openalex.org/W3108605253
  • https://openalex.org/W3114126472
  • https://openalex.org/W3114893929
  • https://openalex.org/W3117200447
  • https://openalex.org/W3123090129
  • https://openalex.org/W3126861513
  • https://openalex.org/W3141012605
  • https://openalex.org/W4231939294