Published May 24, 2021 | Version v1
Publication Open

Exploring 3D Human Action Recognition Using STACOG on Multi-View Depth Motion Maps Sequences

  • 1. Abbottabad University of Science and Technology
  • 2. COMSATS University Islamabad
  • 3. Xi'an Shiyou University
  • 4. Sejong University

Description

This paper proposes an action recognition framework for depth map sequences using the 3D Space-Time Auto-Correlation of Gradients (STACOG) algorithm. First, each depth map sequence is split into two sets of sub-sequences of two different frame lengths individually. Second, a number of Depth Motion Maps (DMMs) sequences from every set are generated and are fed into STACOG to find an auto-correlation feature vector. For two distinct sets of sub-sequences, two auto-correlation feature vectors are obtained and applied gradually to L2-regularized Collaborative Representation Classifier (L2-CRC) for computing a pair of sets of residual values. Next, the Logarithmic Opinion Pool (LOGP) rule is used to combine the two different outcomes of L2-CRC and to allocate an action label of the depth map sequence. Finally, our proposed framework is evaluated on three benchmark datasets named MSR-action 3D dataset, DHA dataset, and UTD-MHAD dataset. We compare the experimental results of our proposed framework with state-of-the-art approaches to prove the effectiveness of the proposed framework. The computational efficiency of the framework is also analyzed for all the datasets to check whether it is suitable for real-time operation or not.

⚠️ This is an automatic machine translation with an accuracy of 90-95%

Translated Description (Arabic)

تقترح هذه الورقة إطار عمل للتعرف على تسلسل خريطة العمق باستخدام خوارزمية الارتباط التلقائي بين الفضاء والوقت ثلاثي الأبعاد للتدرجات (STACOG). أولاً، يتم تقسيم كل تسلسل خريطة عمق إلى مجموعتين من التسلسلات الفرعية بطول إطارين مختلفين بشكل فردي. ثانيًا، يتم إنشاء عدد من تسلسلات خرائط حركة العمق (DMMs) من كل مجموعة ويتم إدخالها في STACOG للعثور على متجه ميزة الارتباط التلقائي. بالنسبة لمجموعتين متميزتين من التسلسلات الفرعية، يتم الحصول على متجهين لميزة الارتباط التلقائي وتطبيقهما تدريجيًا على مصنف التمثيل التعاوني المنتظم L2 (L2 - CRC) لحساب زوج من مجموعات القيم المتبقية. بعد ذلك، يتم استخدام قاعدة مجموعة الآراء اللوغاريتمية (logP) للجمع بين النتيجتين المختلفتين لـ L2 - CRC وتخصيص تسمية عمل لتسلسل خريطة العمق. أخيرًا، يتم تقييم إطارنا المقترح على ثلاث مجموعات بيانات مرجعية تسمى مجموعة بيانات MSR - action 3D، ومجموعة بيانات DHA، ومجموعة بيانات UTD - MHAD. نقارن النتائج التجريبية لإطارنا المقترح بأحدث الأساليب لإثبات فعالية الإطار المقترح. كما يتم تحليل الكفاءة الحسابية للإطار لجميع مجموعات البيانات للتحقق مما إذا كانت مناسبة للتشغيل في الوقت الفعلي أم لا.

Translated Description (French)

Cet article propose un cadre de reconnaissance d'action pour les séquences de cartes de profondeur à l'aide de l'algorithme 3D Space-Time Auto-Correlation of Gradients (STACOG). Tout d'abord, chaque séquence de carte de profondeur est divisée en deux ensembles de sous-séquences de deux longueurs d'image différentes individuellement. Deuxièmement, un certain nombre de séquences de cartes de mouvement de profondeur (DMM) de chaque ensemble sont générées et sont introduites dans STACOG pour trouver un vecteur de caractéristique d'auto-corrélation. Pour deux ensembles distincts de sous-séquences, deux vecteurs de caractéristiques d'auto-corrélation sont obtenus et appliqués progressivement au classificateur de représentation collaborative régularisé en L2 (L2-CRC) pour calculer une paire d'ensembles de valeurs résiduelles. Ensuite, la règle du pool d'opinion logarithmique (LOGP) est utilisée pour combiner les deux résultats différents de L2-CRC et pour attribuer une étiquette d'action de la séquence de carte de profondeur. Enfin, notre cadre proposé est évalué sur trois ensembles de données de référence nommés ensemble de données 3D MSR-action, ensemble de données DHA et ensemble de données UTD-MHAD. Nous comparons les résultats expérimentaux de notre cadre proposé avec des approches de pointe pour prouver l'efficacité du cadre proposé. L'efficacité de calcul du cadre est également analysée pour tous les ensembles de données afin de vérifier s'il convient à un fonctionnement en temps réel ou non.

Translated Description (Spanish)

Este documento propone un marco de reconocimiento de acciones para secuencias de mapas de profundidad utilizando el algoritmo 3D Space-Time Auto-Correlation of Gradients (STACOG). En primer lugar, cada secuencia de mapa de profundidad se divide en dos conjuntos de subsecuencias de dos longitudes de trama diferentes individualmente. En segundo lugar, se generan varias secuencias de mapas de movimiento de profundidad (DMM) de cada conjunto y se introducen en STACOG para encontrar un vector de características de autocorrelación. Para dos conjuntos distintos de subsecuencias, se obtienen dos vectores de características de autocorrelación y se aplican gradualmente al Clasificador de Representación Colaborativa regularizado por L2 (L2-CRC) para calcular un par de conjuntos de valores residuales. A continuación, la regla del grupo de opiniones logarítmicas (LOGP) se utiliza para combinar los dos resultados diferentes de L2-CRC y para asignar una etiqueta de acción de la secuencia del mapa de profundidad. Finalmente, nuestro marco propuesto se evalúa en tres conjuntos de datos de referencia denominados conjunto de datos MSR-action 3D, conjunto de datos DHA y conjunto de datos UTD-MHAD. Comparamos los resultados experimentales de nuestro marco propuesto con enfoques de vanguardia para demostrar la efectividad del marco propuesto. La eficiencia computacional del marco también se analiza para todos los conjuntos de datos para verificar si es adecuado para la operación en tiempo real o no.

Files

pdf.pdf

Files (964.4 kB)

⚠️ Please wait a few minutes before your translated files are ready ⚠️ Note: Some files might be protected thus translations might not work.
Name Size Download all
md5:665d91551874555a0739d5900e8b901e
964.4 kB
Preview Download

Additional details

Additional titles

Translated title (Arabic)
استكشاف التعرف على العمل البشري ثلاثي الأبعاد باستخدام STACOG على تسلسلات خرائط الحركة متعددة العمق
Translated title (French)
Exploration de la reconnaissance de l'action humaine 3D à l'aide de STACOG sur des séquences de cartes de mouvement de profondeur à vues multiples
Translated title (Spanish)
Explorando el reconocimiento 3D de la acción humana utilizando STACOG en secuencias de mapas de movimiento de profundidad multivista

Identifiers

Other
https://openalex.org/W3164236648
DOI
10.3390/s21113642

GreSIS Basics Section

Is Global South Knowledge
Yes
Country
Pakistan

References

  • https://openalex.org/W1237419409
  • https://openalex.org/W1983812060
  • https://openalex.org/W2005490094
  • https://openalex.org/W2056339039
  • https://openalex.org/W2059932701
  • https://openalex.org/W2069959554
  • https://openalex.org/W2079447555
  • https://openalex.org/W2146634731
  • https://openalex.org/W2148198942
  • https://openalex.org/W2149846618
  • https://openalex.org/W2248494199
  • https://openalex.org/W2261262392
  • https://openalex.org/W2274499208
  • https://openalex.org/W2341234201
  • https://openalex.org/W2409643086
  • https://openalex.org/W2506886870
  • https://openalex.org/W2554408731
  • https://openalex.org/W2607226019
  • https://openalex.org/W2650426111
  • https://openalex.org/W2761406536
  • https://openalex.org/W2777182804
  • https://openalex.org/W2794231640
  • https://openalex.org/W2884320137
  • https://openalex.org/W2899565775
  • https://openalex.org/W2901050999
  • https://openalex.org/W2929617068
  • https://openalex.org/W2939852624
  • https://openalex.org/W2944127045
  • https://openalex.org/W2988590303
  • https://openalex.org/W2992312320
  • https://openalex.org/W2996013073
  • https://openalex.org/W3002005943
  • https://openalex.org/W3018584790
  • https://openalex.org/W3037307633
  • https://openalex.org/W3082120068
  • https://openalex.org/W3086367042
  • https://openalex.org/W3088219655
  • https://openalex.org/W3102211951
  • https://openalex.org/W3111213018
  • https://openalex.org/W3119156135
  • https://openalex.org/W3147769639