R2U++: a multiscale recurrent residual U-Net with dense skip connections for medical image segmentation
- 1. Abbottabad University of Science and Technology
- 2. COMSATS University Islamabad
- 3. Umeå University
Description
U-Net is a widely adopted neural network in the domain of medical image segmentation. Despite its quick embracement by the medical imaging community, its performance suffers on complicated datasets. The problem can be ascribed to its simple feature extracting blocks: encoder/decoder, and the semantic gap between encoder and decoder. Variants of U-Net (such as R2U-Net) have been proposed to address the problem of simple feature extracting blocks by making the network deeper, but it does not deal with the semantic gap problem. On the other hand, another variant UNET++ deals with the semantic gap problem by introducing dense skip connections but has simple feature extraction blocks. To overcome these issues, we propose a new U-Net based medical image segmentation architecture R2U++. In the proposed architecture, the adapted changes from vanilla U-Net are: (1) the plain convolutional backbone is replaced by a deeper recurrent residual convolution block. The increased field of view with these blocks aids in extracting crucial features for segmentation which is proven by improvement in the overall performance of the network. (2) The semantic gap between encoder and decoder is reduced by dense skip pathways. These pathways accumulate features coming from multiple scales and apply concatenation accordingly. The modified architecture has embedded multi-depth models, and an ensemble of outputs taken from varying depths improves the performance on foreground objects appearing at various scales in the images. The performance of R2U++ is evaluated on four distinct medical imaging modalities: electron microscopy, X-rays, fundus, and computed tomography. The average gain achieved in IoU score is 1.5 ± 0.37% and in dice score is 0.9 ± 0.33% over UNET++, whereas, 4.21 ± 2.72 in IoU and 3.47 ± 1.89 in dice score over R2U-Net across different medical imaging segmentation datasets.
Translated Descriptions
Translated Description (Arabic)
U - Net هي شبكة عصبية معتمدة على نطاق واسع في مجال تجزئة الصور الطبية. على الرغم من احتضانها السريع من قبل مجتمع التصوير الطبي، إلا أن أدائها يعاني من مجموعات البيانات المعقدة. يمكن أن تعزى المشكلة إلى كتل استخراج الميزة البسيطة: وحدة التشفير/فك التشفير، والفجوة الدلالية بين وحدة التشفير وفك التشفير. تم اقتراح متغيرات U - Net (مثل R2U - Net) لمعالجة مشكلة كتل استخراج الميزات البسيطة من خلال جعل الشبكة أعمق، لكنها لا تتعامل مع مشكلة الفجوة الدلالية. من ناحية أخرى، يتعامل متغير آخر UNET++ مع مشكلة الفجوة الدلالية من خلال تقديم اتصالات تخطي كثيفة ولكنه يحتوي على كتل استخراج ميزات بسيطة. للتغلب على هذه المشكلات، نقترح بنية جديدة لتقسيم الصور الطبية على أساس U - NetR2U++. في البنية المقترحة، التغييرات المكيفة من الفانيليا U - Net هي: (1) يتم استبدال العمود الفقري الالتوائي العادي بكتلة التفاف متبقية متكررة أعمق. يساعد مجال الرؤية المتزايد مع هذه الكتل في استخراج الميزات الحاسمة للتجزئة والتي ثبتت من خلال تحسين الأداء العام للشبكة. (2) يتم تقليل الفجوة الدلالية بين جهاز التشفير وفك التشفير من خلال مسارات التخطي الكثيفة. تتراكم هذه المسارات الميزات القادمة من مقاييس متعددة وتطبق التسلسل وفقًا لذلك. تحتوي البنية المعدلة على نماذج متعددة العمق، وتعمل مجموعة من المخرجات المأخوذة من أعماق مختلفة على تحسين الأداء على الكائنات الأمامية التي تظهر على مستويات مختلفة في الصور. يتم تقييم أداء R2U++ على أربع طرق تصوير طبية متميزة: المجهر الإلكتروني، والأشعة السينية، وقاع العين، والتصوير المقطعي المحوسب. متوسط المكاسب المحققة في درجة IoU هو 1.5 ± 0.37 ٪ وفي درجة DICE هو 0.9 ± 0.33 ٪ على ++ UNET، في حين أن 4.21 ± 2.72 في IoU و 3.47 ± 1.89 في درجة DICE على R2U - Net عبر مجموعات بيانات تجزئة التصوير الطبي المختلفة.Translated Description (French)
U-Net est un réseau de neurones largement adopté dans le domaine de la segmentation des images médicales. Malgré son adoption rapide par la communauté de l'imagerie médicale, sa performance souffre d'ensembles de données complexes. Le problème peut être attribué à ses blocs d'extraction de caractéristiques simples : codeur/décodeur, et à l'écart sémantique entre codeur et décodeur. Des variantes de U-Net (telles que R2U-Net) ont été proposées pour résoudre le problème de l'extraction de blocs de caractéristiques simples en approfondissant le réseau, mais elles ne traitent pas le problème de l'écart sémantique. D'autre part, une autre variante UNET++ traite du problème de l'écart sémantique en introduisant des connexions de saut denses, mais comporte des blocs d'extraction de caractéristiques simples. Pour surmonter ces problèmes, nous proposons une nouvelle architecture de segmentation d'images médicales R2U++ basée sur U-Net. Dans l'architecture proposée, les changements adaptés de vanilla U-Net sont : (1) l'épine dorsale convolutionnelle simple est remplacée par un bloc de convolution résiduelle récurrent plus profond. L'augmentation du champ de vision avec ces blocs aide à extraire des caractéristiques cruciales pour la segmentation, ce qui est prouvé par l'amélioration des performances globales du réseau. (2) L'écart sémantique entre l'encodeur et le décodeur est réduit par des voies de saut denses. Ces voies accumulent des caractéristiques provenant de plusieurs échelles et appliquent la concaténation en conséquence. L'architecture modifiée a intégré des modèles multi-profondeur, et un ensemble de sorties prises à différentes profondeurs améliore les performances sur les objets de premier plan apparaissant à différentes échelles dans les images. La performance de R2U++ est évaluée sur quatre modalités d'imagerie médicale distinctes : la microscopie électronique, les rayons X, le fond d'œil et la tomodensitométrie. Le gain moyen obtenu dans le score IoU est de 1,5 ± 0,37 % et dans le score Dice est de 0,9 ± 0,33 % par rapport à UNET++, tandis que 4,21 ± 2,72 dans IoU et 3,47 ± 1,89 dans le score Dice par rapport à R2U-Net dans différents ensembles de données de segmentation d'imagerie médicale.Translated Description (Spanish)
U-Net es una red neuronal ampliamente adoptada en el ámbito de la segmentación de imágenes médicas. A pesar de su rápida aceptación por parte de la comunidad de imágenes médicas, su rendimiento sufre en conjuntos de datos complicados. El problema se puede atribuir a sus simples bloques de extracción de características: codificador/decodificador y la brecha semántica entre el codificador y el decodificador. Se han propuesto variantes de U-Net (como R2U-Net) para abordar el problema de la extracción de bloques de características simples haciendo que la red sea más profunda, pero no aborda el problema de la brecha semántica. Por otro lado, otra variante UNET++ aborda el problema de la brecha semántica mediante la introducción de conexiones de salto denso, pero tiene bloques de extracción de características simples. Para superar estos problemas, proponemos una nueva arquitectura de segmentación de imágenes médicas basada en U-Net R2U++. En la arquitectura propuesta, los cambios adaptados de vainilla U-Net son: (1) la columna vertebral convolucional plana se reemplaza por un bloque de convolución residual recurrente más profundo. El mayor campo de visión con estos bloques ayuda a extraer características cruciales para la segmentación, lo que se demuestra por la mejora en el rendimiento general de la red. (2) La brecha semántica entre el codificador y el decodificador se reduce mediante rutas de salto densas. Estas vías acumulan características que provienen de múltiples escalas y aplican la concatenación en consecuencia. La arquitectura modificada ha incorporado modelos de múltiples profundidades, y un conjunto de salidas tomadas de profundidades variables mejora el rendimiento de los objetos en primer plano que aparecen a varias escalas en las imágenes. El rendimiento de R2U++ se evalúa en cuatro modalidades distintas de imágenes médicas: microscopía electrónica, rayos X, fondo de ojo y tomografía computarizada. La ganancia promedio lograda en la puntuación IoU es de 1.5 ± 0.37% y en la puntuación dice es de 0.9 ± 0.33% sobre UNET++, mientras que, 4.21 ± 2.72 en IoU y 3.47 ± 1.89 en la puntuación dice sobre R2U-Net en diferentes conjuntos de datos de segmentación de imágenes médicas.Files
s00521-022-07419-7.pdf.pdf
Files
(2.9 MB)
Name | Size | Download all |
---|---|---|
md5:931ee310385f37679c42fd3c9057299a
|
2.9 MB | Preview Download |
Additional details
Additional titles
- Translated title (Arabic)
- R2U++: شبكة متبقية متكررة متعددة المقاييس مع وصلات تخطي كثيفة لتجزئة الصور الطبية
- Translated title (French)
- R2U++ : un U-Net résiduel récurrent multi-échelle avec des connexions de saut denses pour la segmentation des images médicales
- Translated title (Spanish)
- R2U++: una U-Net residual recurrente multiescala con conexiones de salto densas para la segmentación de imágenes médicas
Identifiers
- Other
- https://openalex.org/W4281730279
- DOI
- 10.1007/s00521-022-07419-7
References
- https://openalex.org/W1524992328
- https://openalex.org/W1901129140
- https://openalex.org/W1954433395
- https://openalex.org/W1969013163
- https://openalex.org/W2097117768
- https://openalex.org/W2104276184
- https://openalex.org/W2142514727
- https://openalex.org/W2194775991
- https://openalex.org/W2395611524
- https://openalex.org/W2412782625
- https://openalex.org/W2464708700
- https://openalex.org/W2517954747
- https://openalex.org/W2563705555
- https://openalex.org/W2592929672
- https://openalex.org/W2611590631
- https://openalex.org/W2750023899
- https://openalex.org/W2884436604
- https://openalex.org/W2890139949
- https://openalex.org/W2905338897
- https://openalex.org/W2912063259
- https://openalex.org/W2912083133
- https://openalex.org/W2915028554
- https://openalex.org/W2928133111
- https://openalex.org/W2962914239
- https://openalex.org/W2963446712
- https://openalex.org/W2963859992
- https://openalex.org/W2963881378
- https://openalex.org/W2964217532
- https://openalex.org/W2979297453
- https://openalex.org/W2991049471
- https://openalex.org/W2996290406
- https://openalex.org/W3004415073
- https://openalex.org/W3006169930
- https://openalex.org/W3014892643
- https://openalex.org/W3026680290
- https://openalex.org/W3027763298
- https://openalex.org/W3105636206