Attentive pairwise interaction network for AI-assisted clock drawing test assessment of early visuospatial deficits
Creators
- 1. Chulalongkorn University
- 2. National Science and Technology Development Agency
- 3. National Nanotechnology Center
- 4. King Mongkut's University of Technology Thonburi
- 5. King Chulalongkorn Memorial Hospital
- 6. Thai Red Cross Society
Description
Dementia is a debilitating neurological condition which impairs the cognitive function and the ability to take care of oneself. The Clock Drawing Test (CDT) is widely used to detect dementia, but differentiating normal from borderline cases requires years of clinical experience. Misclassifying mild abnormal as normal will delay the chance to investigate for potential reversible causes or slow down the progression. To help address this issue, we propose an automatic CDT scoring system that adopts Attentive Pairwise Interaction Network (API-Net), a fine-grained deep learning model that is designed to distinguish visually similar images. Inspired by how humans often learn to recognize different objects by looking at two images side-by-side, API-Net is optimized using image pairs in a contrastive manner, as opposed to standard supervised learning, which optimizes a model using individual images. In this study, we extend API-Net to infer Shulman CDT scores from a dataset of 3108 subjects. We compare the performance of API-Net to that of convolutional neural networks: VGG16, ResNet-152, and DenseNet-121. The best API-Net achieves an F1-score of 0.79, which is a 3% absolute improvement over ResNet-152's F1-score of 0.76. The code for API-Net and the dataset used have been made available at https://github.com/cccnlab/CDT-API-Network .
Translated Descriptions
Translated Description (Arabic)
الخرف هو حالة عصبية موهنة تضعف الوظيفة الإدراكية والقدرة على الاعتناء بالنفس. يستخدم اختبار رسم الساعة (CDT) على نطاق واسع للكشف عن الخرف، ولكن التمييز بين الحالات الطبيعية والحالات الحدية يتطلب سنوات من الخبرة السريرية. سيؤدي التصنيف الخاطئ للشذوذ الخفيف كالمعتاد إلى تأخير فرصة التحقيق في الأسباب المحتملة التي يمكن عكسها أو إبطاء التقدم. للمساعدة في معالجة هذه المشكلة، نقترح نظامًا آليًا لتسجيل نقاط CDT يعتمد شبكة التفاعل الزوجي اليقظ (API - Net)، وهو نموذج تعلم عميق دقيق تم تصميمه لتمييز الصور المتشابهة بصريًا. مستوحاة من كيفية تعلم البشر في كثير من الأحيان التعرف على الأشياء المختلفة من خلال النظر إلى صورتين جنبًا إلى جنب، تم تحسين API - Net باستخدام أزواج الصور بطريقة متباينة، على عكس التعلم الخاضع للإشراف القياسي، والذي يحسن النموذج باستخدام الصور الفردية. في هذه الدراسة، قمنا بتوسيع API - Net لاستنتاج درجات Shulman CDT من مجموعة بيانات مكونة من 3108 مشاركًا. نقارن أداء API - Net بأداء الشبكات العصبية الالتفافية: VGG16 و ResNet -152 و DenseNet -121. يحقق أفضل API - Net درجة F1 تبلغ 0.79، وهو تحسن مطلق بنسبة 3 ٪ عن درجة F1 الخاصة بـ ResNet -152 البالغة 0.76. تم توفير رمز API - Net ومجموعة البيانات المستخدمة على https://github.com/cccnlab/CDT-API-Network .Translated Description (French)
La démence est une affection neurologique débilitante qui altère la fonction cognitive et la capacité de prendre soin de soi. Le test de dessin d'horloge (CDT) est largement utilisé pour détecter la démence, mais différencier les cas normaux des cas limites nécessite des années d'expérience clinique. Une classification anormale légère comme normale retardera la possibilité d'enquêter sur les causes réversibles potentielles ou ralentira la progression. Pour aider à résoudre ce problème, nous proposons un système de notation CDT automatique qui adopte le réseau d'interaction par paires attentives (API-Net), un modèle d'apprentissage profond à grain fin conçu pour distinguer des images visuellement similaires. Inspiré par la façon dont les humains apprennent souvent à reconnaître différents objets en regardant deux images côte à côte, API-Net est optimisé à l'aide de paires d'images de manière contrastive, par opposition à l'apprentissage supervisé standard, qui optimise un modèle à l'aide d'images individuelles. Dans cette étude, nous étendons API-Net pour déduire les scores CDT de Shulman à partir d'un ensemble de données de 3108 sujets. Nous comparons les performances d'API-Net à celles des réseaux de neurones convolutionnels : VGG16, ResNet-152 et DenseNet-121. Le meilleur API-Net atteint un score F1 de 0,79, ce qui représente une amélioration absolue de 3% par rapport au score F1 de 0,76 de ResNet-152. Le code pour API-Net et l'ensemble de données utilisé ont été mis à disposition sur https://github.com/cccnlab/CDT-API-Network .Translated Description (Spanish)
La demencia es una afección neurológica debilitante que afecta la función cognitiva y la capacidad de cuidarse a sí mismo. La prueba de dibujo del reloj (CDT) se utiliza ampliamente para detectar la demencia, pero diferenciar los casos normales de los casos límite requiere años de experiencia clínica. La clasificación errónea de anormalidades leves como normales retrasará la posibilidad de investigar posibles causas reversibles o ralentizará la progresión. Para ayudar a abordar este problema, proponemos un sistema de puntuación CDT automático que adopta Attentive Pairwise Interaction Network (API-Net), un modelo de aprendizaje profundo de grano fino que está diseñado para distinguir imágenes visualmente similares. Inspirada en la forma en que los humanos a menudo aprenden a reconocer diferentes objetos mirando dos imágenes una al lado de la otra, API-Net se optimiza utilizando pares de imágenes de manera contrastante, a diferencia del aprendizaje supervisado estándar, que optimiza un modelo utilizando imágenes individuales. En este estudio, ampliamos API-Net para inferir las puntuaciones CDT de Shulman de un conjunto de datos de 3108 sujetos. Comparamos el rendimiento de API-Net con el de las redes neuronales convolucionales: VGG16, ResNet-152 y DenseNet-121. La mejor API-Net logra una puntuación F1 de 0,79, que es una mejora absoluta del 3% con respecto a la puntuación F1 de ResNet-152 de 0,76. El código de API-Net y el conjunto de datos utilizados se han puesto a disposición en https://github.com/cccnlab/CDT-API-Network .Files
s41598-023-44723-1.pdf.pdf
Files
(2.7 MB)
Name | Size | Download all |
---|---|---|
md5:939ab76b3acaf1067c75aea5f8f6977f
|
2.7 MB | Preview Download |
Additional details
Additional titles
- Translated title (Arabic)
- شبكة التفاعل الزوجي اليقظ لتقييم اختبار الرسم على مدار الساعة بمساعدة الذكاء الاصطناعي للعجز البصري المكاني المبكر
- Translated title (French)
- Réseau d'interaction par paires attentif pour l'évaluation par test de dessin d'horloge assisté par IA des déficits visuospatiaux précoces
- Translated title (Spanish)
- Red de interacción por pares atenta para la evaluación de la prueba de dibujo de reloj asistido por IA de los déficits visuoespaciales tempranos
Identifiers
- Other
- https://openalex.org/W4387880291
- DOI
- 10.1038/s41598-023-44723-1
References
- https://openalex.org/W1847168837
- https://openalex.org/W1981741586
- https://openalex.org/W2008854521
- https://openalex.org/W2014347195
- https://openalex.org/W2045745485
- https://openalex.org/W2053800808
- https://openalex.org/W2058161128
- https://openalex.org/W2092173737
- https://openalex.org/W2108598243
- https://openalex.org/W2109528095
- https://openalex.org/W2148080316
- https://openalex.org/W2157008706
- https://openalex.org/W2165758561
- https://openalex.org/W2167311298
- https://openalex.org/W2177693422
- https://openalex.org/W2250251955
- https://openalex.org/W2401062574
- https://openalex.org/W2501591283
- https://openalex.org/W2605510900
- https://openalex.org/W2618530766
- https://openalex.org/W2753612061
- https://openalex.org/W2949650786
- https://openalex.org/W2962835968
- https://openalex.org/W2963446712
- https://openalex.org/W2964121744
- https://openalex.org/W3012670297
- https://openalex.org/W3015214599
- https://openalex.org/W3109437785
- https://openalex.org/W3134890023
- https://openalex.org/W3174994854
- https://openalex.org/W3188802600
- https://openalex.org/W4206055706
- https://openalex.org/W4206648109
- https://openalex.org/W4221049185
- https://openalex.org/W4225386774
- https://openalex.org/W4226373958
- https://openalex.org/W4233749351
- https://openalex.org/W4280551114
- https://openalex.org/W4290755265
- https://openalex.org/W8825751