Published January 1, 2019 | Version v1
Publication Open

Robustness-Driven Hybrid Descriptor for Noise-Deterrent Texture Classification

  • 1. University of Engineering and Technology Taxila
  • 2. COMSATS University Islamabad
  • 3. University of West London
  • 4. KTH Royal Institute of Technology

Description

A robustness-driven hybrid descriptor (RDHD) for noise-deterrent texture classification is presented in this paper. This paper offers the ability to categorize a variety of textures under challenging image acquisition conditions. An image is initially resolved into its low-frequency components by applying wavelet decomposition. The resulting low-frequency components are further processed for feature extraction using completed joint-scale local binary patterns (CJLBP). Moreover, a second feature set is obtained by computing the low order derivatives of the original sample. The evaluated feature sets are integrated to get a final feature vector representation. The texture-discriminating performance of the hybrid descriptor is analyzed using renowned datasets: Outex original, Outex extended, and KTH-TIPS. The experimental results demonstrate a stable and robust performance of the descriptor under a variety of noisy conditions. An accuracy of 95.86%, 32.52%, and 88.74% at noise variance of 0.025 is achieved for the given datasets, respectively. A comparison between performance parameters of the proposed paper with its parent descriptors and recently published paper is also presented.

⚠️ This is an automatic machine translation with an accuracy of 90-95%

Translated Description (Arabic)

يتم تقديم واصف هجين يحركه المتانة (RDHD) لتصنيف نسيج مانع للضوضاء في هذه الورقة. توفر هذه الورقة البحثية القدرة على تصنيف مجموعة متنوعة من القوام في ظل ظروف صعبة لاكتساب الصور. يتم تحليل الصورة في البداية إلى مكوناتها منخفضة التردد عن طريق تطبيق تحلل الموجات الصغيرة. تتم معالجة المكونات منخفضة التردد الناتجة لاستخراج الميزات باستخدام الأنماط الثنائية المحلية المشتركة المكتملة (CJLBP). علاوة على ذلك، يتم الحصول على مجموعة ميزات ثانية عن طريق حساب المشتقات منخفضة الترتيب للعينة الأصلية. تم دمج مجموعات الميزات التي تم تقييمها للحصول على تمثيل متجه الميزة النهائي. يتم تحليل الأداء التمييزي للوصف الهجين باستخدام مجموعات البيانات الشهيرة: Outex original و Outex extended و KTH - TIPS. تُظهر النتائج التجريبية أداءً مستقرًا وقويًا للوصف في ظل مجموعة متنوعة من الظروف الصاخبة. يتم تحقيق دقة 95.86 ٪ و 32.52 ٪ و 88.74 ٪ عند تباين الضوضاء البالغ 0.025 لمجموعات البيانات المعطاة، على التوالي. كما يتم تقديم مقارنة بين معلمات الأداء للورقة المقترحة مع أوصافها الأصلية والورقة المنشورة مؤخرًا.

Translated Description (French)

Un descripteur hybride basé sur la robustesse (RDHD) pour la classification des textures dissuasives du bruit est présenté dans cet article. Cet article offre la possibilité de catégoriser une variété de textures dans des conditions d'acquisition d'images difficiles. Une image est initialement résolue en ses composantes basse fréquence en appliquant une décomposition en ondelettes. Les composants basse fréquence résultants sont ensuite traités pour l'extraction de caractéristiques à l'aide de modèles binaires locaux à l'échelle conjointe (CJLBP) complétés. De plus, un deuxième ensemble de caractéristiques est obtenu en calculant les dérivées d'ordre inférieur de l'échantillon d'origine. Les ensembles de caractéristiques évalués sont intégrés pour obtenir une représentation vectorielle de caractéristique finale. Les performances de discrimination de texture du descripteur hybride sont analysées à l'aide d'ensembles de données renommés : Outex original, Outex étendu et KTH-TIPS. Les résultats expérimentaux démontrent une performance stable et robuste du descripteur dans une variété de conditions bruyantes. Une précision de 95,86 %, 32,52 % et 88,74 % à une variance de bruit de 0,025 est obtenue pour les ensembles de données donnés, respectivement. Une comparaison entre les paramètres de performance de l'article proposé avec ses descripteurs parents et l'article récemment publié est également présentée.

Translated Description (Spanish)

En este documento se presenta un descriptor híbrido basado en la robustez (RDHD) para la clasificación de texturas disuasorias del ruido. Este documento ofrece la capacidad de categorizar una variedad de texturas en condiciones difíciles de adquisición de imágenes. Una imagen se resuelve inicialmente en sus componentes de baja frecuencia mediante la aplicación de la descomposición de ondículas. Los componentes de baja frecuencia resultantes se procesan adicionalmente para la extracción de características utilizando patrones binarios locales completos a escala conjunta (CJLBP). Además, se obtiene un segundo conjunto de características calculando las derivadas de orden inferior de la muestra original. Los conjuntos de características evaluados se integran para obtener una representación final del vector de características. El rendimiento discriminador de textura del descriptor híbrido se analiza utilizando conjuntos de datos de renombre: Outex original, Outex extendido y KTH-TIPS. Los resultados experimentales demuestran un rendimiento estable y robusto del descriptor en una variedad de condiciones ruidosas. Se logra una precisión de 95.86%, 32.52% y 88.74% a una varianza de ruido de 0.025 para los conjuntos de datos dados, respectivamente. También se presenta una comparación entre los parámetros de rendimiento del trabajo propuesto con sus descriptores principales y el trabajo publicado recientemente.

Files

08786113.pdf.pdf

Files (245 Bytes)

⚠️ Please wait a few minutes before your translated files are ready ⚠️ Note: Some files might be protected thus translations might not work.
Name Size Download all
md5:56c8e22410e30274e3baa9a623c96ce0
245 Bytes
Preview Download

Additional details

Additional titles

Translated title (Arabic)
الواصف الهجين القائم على المتانة لتصنيف نسيج مانع للضوضاء
Translated title (French)
Descripteur hybride axé sur la robustesse pour la classification de texture anti-bruit
Translated title (Spanish)
Descriptor híbrido basado en la robustez para la clasificación de textura resistente al ruido

Identifiers

Other
https://openalex.org/W2965742150
DOI
10.1109/access.2019.2932687

GreSIS Basics Section

Is Global South Knowledge
Yes
Country
Pakistan

References

  • https://openalex.org/W1103625893
  • https://openalex.org/W1574818812
  • https://openalex.org/W1659808751
  • https://openalex.org/W1754145126
  • https://openalex.org/W1971877752
  • https://openalex.org/W1984868226
  • https://openalex.org/W2020681746
  • https://openalex.org/W2022274350
  • https://openalex.org/W2028735463
  • https://openalex.org/W2030576021
  • https://openalex.org/W2031596661
  • https://openalex.org/W2038777412
  • https://openalex.org/W2052446636
  • https://openalex.org/W2070644180
  • https://openalex.org/W2108082645
  • https://openalex.org/W2131081720
  • https://openalex.org/W2147141800
  • https://openalex.org/W2159988601
  • https://openalex.org/W2164039212
  • https://openalex.org/W2235411663
  • https://openalex.org/W2278915112
  • https://openalex.org/W2283543653
  • https://openalex.org/W2294526658
  • https://openalex.org/W2340899734
  • https://openalex.org/W2342423581
  • https://openalex.org/W2513925194
  • https://openalex.org/W2518260411
  • https://openalex.org/W2518815253
  • https://openalex.org/W2525466408
  • https://openalex.org/W2568830364
  • https://openalex.org/W2581510845
  • https://openalex.org/W2588020365
  • https://openalex.org/W2588612844
  • https://openalex.org/W2590762055
  • https://openalex.org/W2592893779
  • https://openalex.org/W2605666222
  • https://openalex.org/W2624467729
  • https://openalex.org/W2738000334
  • https://openalex.org/W2755040397
  • https://openalex.org/W2773325104
  • https://openalex.org/W2780127260
  • https://openalex.org/W2785996189
  • https://openalex.org/W2790526513
  • https://openalex.org/W2793767092
  • https://openalex.org/W2796270098
  • https://openalex.org/W2798412221
  • https://openalex.org/W2804235947
  • https://openalex.org/W2893356028
  • https://openalex.org/W2895559788
  • https://openalex.org/W2945139575
  • https://openalex.org/W2962983231
  • https://openalex.org/W2963661166