Cervical cell's nucleus segmentation through an improved UNet architecture
Creators
- 1. Hazara University
Description
Precise segmentation of the nucleus is vital for computer-aided diagnosis (CAD) in cervical cytology. Automated delineation of the cervical nucleus has notorious challenges due to clumped cells, color variation, noise, and fuzzy boundaries. Due to its standout performance in medical image analysis, deep learning has gained attention from other techniques. We have proposed a deep learning model, namely C-UNet (Cervical-UNet), to segment cervical nuclei from overlapped, fuzzy, and blurred cervical cell smear images. Cross-scale features integration based on a bi-directional feature pyramid network (BiFPN) and wide context unit are used in the encoder of classic UNet architecture to learn spatial and local features. The decoder of the improved network has two inter-connected decoders that mutually optimize and integrate these features to produce segmentation masks. Each component of the proposed C-UNet is extensively evaluated to judge its effectiveness on a complex cervical cell dataset. Different data augmentation techniques were employed to enhance the proposed model's training. Experimental results have shown that the proposed model outperformed extant models, i.e., CGAN (Conditional Generative Adversarial Network), DeepLabv3, Mask-RCNN (Region-Based Convolutional Neural Network), and FCN (Fully Connected Network), on the employed dataset used in this study and ISBI-2014 (International Symposium on Biomedical Imaging 2014), ISBI-2015 datasets. The C-UNet achieved an object-level accuracy of 93%, pixel-level accuracy of 92.56%, object-level recall of 95.32%, pixel-level recall of 92.27%, Dice coefficient of 93.12%, and F1-score of 94.96% on complex cervical images dataset.
Translated Descriptions
Translated Description (Arabic)
يعد التقسيم الدقيق للنواة أمرًا حيويًا للتشخيص بمساعدة الكمبيوتر (CAD) في علم خلايا عنق الرحم. ينطوي الترسيم الآلي لنواة عنق الرحم على تحديات سيئة السمعة بسبب الخلايا المتكتلة، وتباين الألوان، والضوضاء، والحدود الغامضة. نظرًا لأدائه المتميز في تحليل الصور الطبية، اكتسب التعلم العميق اهتمامًا من التقنيات الأخرى. لقد اقترحنا نموذجًا للتعلم العميق، وهو C - Unet (Cervical - Unet)، لتقسيم نوى عنق الرحم من صور مسحة خلايا عنق الرحم المتداخلة وغير الواضحة وغير الواضحة. يتم استخدام تكامل الميزات عبر النطاق استنادًا إلى شبكة هرمية ثنائية الاتجاه (BiFPN) ووحدة سياق واسعة في مشفر بنية UNet الكلاسيكية لتعلم الميزات المكانية والمحلية. تحتوي وحدة فك تشفير الشبكة المحسنة على وحدتي فك تشفير مترابطتين تعملان على تحسين هذه الميزات ودمجها بشكل متبادل لإنتاج أقنعة تجزئة. يتم تقييم كل مكون من مكونات C - UNET المقترحة على نطاق واسع للحكم على فعاليتها في مجموعة بيانات معقدة لخلايا عنق الرحم. تم استخدام تقنيات مختلفة لزيادة البيانات لتعزيز تدريب النموذج المقترح. أظهرت النتائج التجريبية أن النموذج المقترح تفوق على النماذج الموجودة، أي CGAN (شبكة الخصومة التوليدية المشروطة)، و DeepLabv3، و Mask - RCNN (الشبكة العصبية الالتفافية القائمة على المنطقة)، و FCN (الشبكة المتصلة بالكامل)، على مجموعة البيانات المستخدمة المستخدمة في هذه الدراسة و ISBI -2014 (الندوة الدولية للتصوير الطبي الحيوي 2014)، ومجموعات بيانات ISBI -2015. حققت شبكة C - UNet دقة على مستوى الكائن بنسبة 93 ٪، ودقة على مستوى البكسل بنسبة 92.56 ٪، واسترجاع على مستوى الكائن بنسبة 95.32 ٪، واسترجاع على مستوى البكسل بنسبة 92.27 ٪، ومعامل النرد بنسبة 93.12 ٪، ودرجة F1 بنسبة 94.96 ٪ على مجموعة بيانات صور عنق الرحم المعقدة.Translated Description (French)
Une segmentation précise du noyau est essentielle pour le diagnostic assisté par ordinateur (DAO) en cytologie cervicale. La délimitation automatisée du noyau cervical présente des défis notoires en raison de l'agglutination des cellules, de la variation de couleur, du bruit et des limites floues. En raison de ses performances remarquables dans l'analyse d'images médicales, l'apprentissage en profondeur a attiré l'attention d'autres techniques. Nous avons proposé un modèle d'apprentissage en profondeur, à savoir C-UNet (Cervical-UNet), pour segmenter les noyaux cervicaux à partir d'images de frottis de cellules cervicales superposées, floues et floues. L'intégration de caractéristiques à échelle croisée basée sur un réseau pyramidal de caractéristiques bidirectionnel (BiFPN) et une unité de contexte large sont utilisées dans l'encodeur de l'architecture UNet classique pour apprendre les caractéristiques spatiales et locales. Le décodeur du réseau amélioré comporte deux décodeurs interconnectés qui optimisent et intègrent mutuellement ces caractéristiques pour produire des masques de segmentation. Chaque composant du C-UNet proposé est évalué de manière approfondie pour juger de son efficacité sur un ensemble de données complexes sur les cellules cervicales. Différentes techniques d'augmentation des données ont été utilisées pour améliorer la formation du modèle proposé. Les résultats expérimentaux ont montré que le modèle proposé surpassait les modèles existants, à savoir CGAN (Conditional Generative Adversarial Network), DeepLabv3, Mask-RCNN (Region-Based Convolutional Neural Network) et FCN (Fully Connected Network), sur l'ensemble de données utilisé dans cette étude et ISBI-2014 (International Symposium on Biomedical Imaging 2014), ensembles de données ISBI-2015. Le C-UNet a atteint une précision au niveau de l'objet de 93 %, une précision au niveau du pixel de 92,56 %, un rappel au niveau de l'objet de 95,32 %, un rappel au niveau du pixel de 92,27 %, un coefficient de dés de 93,12 % et un score F1 de 94,96 % sur un ensemble de données d'images cervicales complexes.Translated Description (Spanish)
La segmentación precisa del núcleo es vital para el diagnóstico asistido por ordenador (CAD) en la citología cervical. La delineación automatizada del núcleo cervical tiene desafíos notorios debido a las células agrupadas, la variación de color, el ruido y los límites difusos. Debido a su destacado rendimiento en el análisis de imágenes médicas, el aprendizaje profundo ha llamado la atención de otras técnicas. Hemos propuesto un modelo de aprendizaje profundo, a saber, C-UNet (Cervical-UNet), para segmentar los núcleos cervicales a partir de imágenes de frotis de células cervicales superpuestas, difusas y borrosas. La integración de características a escala cruzada basada en una red piramidal de características bidireccional (BiFPN) y una unidad de contexto amplio se utilizan en el codificador de la arquitectura UNet clásica para aprender características espaciales y locales. El decodificador de la red mejorada tiene dos decodificadores interconectados que optimizan e integran mutuamente estas características para producir máscaras de segmentación. Cada componente de la C-UNet propuesta se evalúa exhaustivamente para juzgar su efectividad en un conjunto de datos de células cervicales complejas. Se emplearon diferentes técnicas de aumento de datos para mejorar la capacitación del modelo propuesto. Los resultados experimentales han demostrado que el modelo propuesto superó a los modelos existentes, es decir, CGAN (Conditional Generative Adversarial Network), DeepLabv3, Mask-RCNN (Region-Based Convolutional Neural Network) y FCN (Fully Connected Network), en el conjunto de datos empleado utilizado en este estudio e ISBI-2014 (International Symposium on Biomedical Imaging 2014), conjuntos de datos ISBI-2015. La C-UNet logró una precisión a nivel de objeto del 93%, una precisión a nivel de píxel del 92,56%, una recuperación a nivel de objeto del 95,32%, una recuperación a nivel de píxel del 92,27%, un coeficiente de dados del 93,12% y una puntuación F1 del 94,96% en el conjunto de datos de imágenes cervicales complejas.Files
journal.pone.0283568&type=printable.pdf
Files
(3.5 MB)
Name | Size | Download all |
---|---|---|
md5:fafe82758fc88fdb33f2688cfccd3f2b
|
3.5 MB | Preview Download |
Additional details
Additional titles
- Translated title (Arabic)
- تجزئة نواة خلية عنق الرحم من خلال بنية UNET محسنة
- Translated title (French)
- Segmentation du noyau des cellules cervicales grâce à une architecture UNet améliorée
- Translated title (Spanish)
- Segmentación del núcleo de la célula cervical a través de una arquitectura UNet mejorada
Identifiers
- Other
- https://openalex.org/W4387308960
- DOI
- 10.1371/journal.pone.0283568
References
- https://openalex.org/W154838637
- https://openalex.org/W1582640985
- https://openalex.org/W1901129140
- https://openalex.org/W1968615915
- https://openalex.org/W1979535129
- https://openalex.org/W1999944750
- https://openalex.org/W2033140564
- https://openalex.org/W2033994961
- https://openalex.org/W2039689173
- https://openalex.org/W2041399057
- https://openalex.org/W2051566409
- https://openalex.org/W2057114171
- https://openalex.org/W2057836452
- https://openalex.org/W2098360374
- https://openalex.org/W2106798291
- https://openalex.org/W2120549843
- https://openalex.org/W2132162500
- https://openalex.org/W2142332605
- https://openalex.org/W2151538727
- https://openalex.org/W2155813740
- https://openalex.org/W2156065311
- https://openalex.org/W2194775991
- https://openalex.org/W2241732657
- https://openalex.org/W2264887978
- https://openalex.org/W2268272600
- https://openalex.org/W2329826697
- https://openalex.org/W2343237073
- https://openalex.org/W2408733084
- https://openalex.org/W2412782625
- https://openalex.org/W2420843783
- https://openalex.org/W2503988460
- https://openalex.org/W2512138407
- https://openalex.org/W2592905743
- https://openalex.org/W2628702118
- https://openalex.org/W2728813321
- https://openalex.org/W2789926374
- https://openalex.org/W2884654146
- https://openalex.org/W2886325306
- https://openalex.org/W2890567626
- https://openalex.org/W2903662593
- https://openalex.org/W2906726043
- https://openalex.org/W2932122572
- https://openalex.org/W2962804068
- https://openalex.org/W2963150697
- https://openalex.org/W2963200645
- https://openalex.org/W2964309882
- https://openalex.org/W3034971973
- https://openalex.org/W3043365685
- https://openalex.org/W3100296314
- https://openalex.org/W3119192920
- https://openalex.org/W3124470488
- https://openalex.org/W3133063036
- https://openalex.org/W3134866734
- https://openalex.org/W3177310574
- https://openalex.org/W3193527568
- https://openalex.org/W3200847902
- https://openalex.org/W3203670441
- https://openalex.org/W4221099717
- https://openalex.org/W4226485775
- https://openalex.org/W4229377945
- https://openalex.org/W426634604
- https://openalex.org/W4284686647
- https://openalex.org/W4285241481
- https://openalex.org/W4289333595
- https://openalex.org/W4304585001