Feature Extraction Method for Improving Speech Recognition in Noisy Environments
Description
The paper presents a feature extraction method, named as Normalized Gammachirp Cepstral Coefficients (NGCC) that incorporates the properties of the peripheral auditory system to improve robustness in noisy speech recognition.The proposed method is based on a second order low-pass filter and normalized gammachirp filterbank to emulate the mechanisms performed in the outer/middle ear and cochlea.The speech recognition performance of this method is conducted on the speech signals in real-world noisy environments.Experimental results demonstrate that method outperformed the classical feature extraction methods in terms of speech recognition rate.The used Hidden Markov Models based speech recognition system is employed on the HTK 3.4.1 platform (Hidden Markov Model Toolkit).
Translated Descriptions
Translated Description (Arabic)
تقدم الورقة طريقة استخراج ميزة، تسمى معاملات غاماشيرب المعيارية (NGCC) التي تتضمن خصائص النظام السمعي المحيطي لتحسين المتانة في التعرف على الكلام الصاخب. تعتمد الطريقة المقترحة على مرشح تمرير منخفض من الدرجة الثانية ومرشح غاماشيرب المعياري لمحاكاة الآليات التي يتم إجراؤها في الأذن الخارجية/الوسطى والقوقعة. يتم إجراء أداء التعرف على الكلام لهذه الطريقة على إشارات الكلام في البيئات الصاخبة في العالم الحقيقي. توضح النتائج التجريبية أن الطريقة تفوقت على طرق استخراج الميزة الكلاسيكية من حيث معدل التعرف على الكلام. يتم استخدام نظام التعرف على الكلام القائم على نماذج ماركوف المخفية المستخدمة على منصة HTK 3.4.1 (مجموعة أدوات نموذج ماركوف المخفية).Translated Description (French)
L'article présente une méthode d'extraction de caractéristiques, appelée Normalized Gammachirp Cepstral Coefficients (NGCC) qui incorpore les propriétés du système auditif périphérique pour améliorer la robustesse de la reconnaissance vocale bruyante. La méthode proposée est basée sur un filtre passe-bas du deuxième ordre et un banc de filtres gammachirp normalisé pour émuler les mécanismes exécutés dans l'oreille externe/moyenne et la cochlée. Les performances de reconnaissance vocale de cette méthode sont menées sur les signaux vocaux dans des environnements bruyants du monde réel. Les résultats expérimentaux démontrent que la méthode a surpassé les méthodes classiques d'extraction de caractéristiques en termes de taux de reconnaissance vocale. Le système de reconnaissance vocale basé sur les modèles de Markov cachés utilisé est utilisé sur la plate-forme HTK 3.4.1 (Hidden Markov Model Toolkit).Translated Description (Spanish)
El documento presenta un método de extracción de características, denominado Coeficientes Cepstrales de Gammachirp Normalizados (NGCC) que incorpora las propiedades del sistema auditivo periférico para mejorar la robustez en el reconocimiento de voz ruidoso. El método propuesto se basa en un filtro de paso bajo de segundo orden y un banco de filtros de gammachirp normalizado para emular los mecanismos realizados en el oído externo/medio y la cóclea. El rendimiento del reconocimiento de voz de este método se lleva a cabo en las señales de voz en entornos ruidosos del mundo real. Los resultados experimentales demuestran que el método superó a los métodos clásicos de extracción de características en términos de tasa de reconocimiento de voz. El sistema de reconocimiento de voz basado en modelos ocultos de Markov utilizado se emplea en la plataforma HTK 3.4.1 (Hidden Markov Model Toolkit).Files
jcssp.2016.56.61.pdf.pdf
Files
(237.7 kB)
Name | Size | Download all |
---|---|---|
md5:073508c3f9fce67a46a41aeead9b89ed
|
237.7 kB | Preview Download |
Additional details
Additional titles
- Translated title (Arabic)
- طريقة استخراج الميزة لتحسين التعرف على الكلام في البيئات الصاخبة
- Translated title (French)
- Méthode d'extraction de caractéristiques pour améliorer la reconnaissance vocale dans les environnements bruyants
- Translated title (Spanish)
- Método de extracción de funciones para mejorar el reconocimiento de voz en entornos ruidosos
Identifiers
- Other
- https://openalex.org/W2310360015
- DOI
- 10.3844/jcssp.2016.56.61
References
- https://openalex.org/W1967789223
- https://openalex.org/W1987292616
- https://openalex.org/W1989164285
- https://openalex.org/W2033708670
- https://openalex.org/W2050758723
- https://openalex.org/W2090861223
- https://openalex.org/W2102834435
- https://openalex.org/W2111042635
- https://openalex.org/W2148154194
- https://openalex.org/W2157184970
- https://openalex.org/W2161025448
- https://openalex.org/W285519105