Foreground Object Detection by Motion-based Grouping of Object Parts
- 1. The University of Tokyo
- 2. Peking University
Description
Effective video-based detection methods are of great importance to intelligent transportation systems (ITS), and here we propose a method to localize and label objects. The method is able to detect pedestrians and bicycle riders in a complex scene. Our method is inspired by the common fate principle, which is a mechanism of visual perception in human beings, and which states tokens moving or functioning in a similar manner tend to be perceived as one unit. Our method embeds the principle in an Implicit Shape Model (ISM). In our method, keypoint-based object parts are firstly detected and then grouped by their motion patterns. Based on the grouping results, when the object parts vote for object centers and labels, each vote belonging to the same object part is assigned a weight according to its consistency with the votes of other object parts in the same motion group. Afterwards, the peaks, which correspond to detection hypotheses on the Hough image formed by summing up all weighted votes, become easier to find. Thus our method performs better in both position and label estimations. Experiments show the effectiveness of our method in terms of detection accuracy.
Translated Descriptions
Translated Description (Arabic)
تعتبر طرق الكشف الفعالة القائمة على الفيديو ذات أهمية كبيرة لأنظمة النقل الذكية (ITS)، وهنا نقترح طريقة لتوطين الكائنات وتسميةها. يمكن لهذه الطريقة اكتشاف المشاة وراكبي الدراجات في مشهد معقد. طريقتنا مستوحاة من مبدأ المصير المشترك، وهو آلية للإدراك البصري لدى البشر، والتي تنص على أن الرموز المميزة تتحرك أو تعمل بطريقة مماثلة تميل إلى أن يُنظر إليها على أنها وحدة واحدة. تقوم طريقتنا بتضمين المبدأ في نموذج الشكل الضمني (ISM). في طريقتنا، يتم أولاً اكتشاف أجزاء الكائن القائمة على نقاط المفاتيح ثم تجميعها حسب أنماط حركتها. بناءً على نتائج التجميع، عندما تصوت أجزاء الكائن لمراكز وتسميات الكائن، يتم تعيين وزن لكل صوت ينتمي إلى نفس جزء الكائن وفقًا لاتساقه مع أصوات أجزاء الكائن الأخرى في نفس مجموعة الحركة. بعد ذلك، أصبح من الأسهل العثور على القمم، التي تتوافق مع فرضيات الكشف على صورة هوغ التي تشكلت من خلال تلخيص جميع الأصوات المرجحة. وبالتالي فإن طريقتنا تؤدي بشكل أفضل في كل من تقديرات الموضع والتسمية. تُظهر التجارب فعالية طريقتنا من حيث دقة الكشف.Translated Description (French)
Les méthodes de détection vidéo efficaces sont d'une grande importance pour les systèmes de transport intelligents (STI), et nous proposons ici une méthode pour localiser et étiqueter des objets. Le procédé est capable de détecter les piétons et les cyclistes dans une scène complexe. Notre méthode s'inspire du principe du destin commun, qui est un mécanisme de perception visuelle chez l'être humain, et qui stipule que les jetons se déplaçant ou fonctionnant de manière similaire ont tendance à être perçus comme une seule unité. Notre méthode intègre le principe dans un modèle de forme implicite (ISM). Dans notre procédé, les parties d'objet basées sur des points clés sont d'abord détectées, puis regroupées par leurs modèles de mouvement. Sur la base des résultats du regroupement, lorsque les parties d'objet votent pour des centres d'objet et des étiquettes, chaque vote appartenant à la même partie d'objet se voit attribuer un poids en fonction de sa cohérence avec les votes des autres parties d'objet dans le même groupe de mouvements. Par la suite, les pics, qui correspondent à des hypothèses de détection sur l'image de Hough formée par la sommation de tous les votes pondérés, deviennent plus faciles à trouver. Ainsi, notre méthode est plus performante dans les estimations de position et d'étiquette. Les expériences montrent l'efficacité de notre méthode en termes de précision de détection.Translated Description (Spanish)
Los métodos efectivos de detección basados en video son de gran importancia para los sistemas de transporte inteligentes (ITS), y aquí proponemos un método para localizar y etiquetar objetos. El método es capaz de detectar peatones y ciclistas en una escena compleja. Nuestro método se inspira en el principio del destino común, que es un mecanismo de percepción visual en los seres humanos, y que establece que las fichas que se mueven o funcionan de manera similar tienden a percibirse como una unidad. Nuestro método incorpora el principio en un Modelo de forma implícito (ISM). En nuestro método, las partes del objeto basadas en puntos clave se detectan primero y luego se agrupan por sus patrones de movimiento. Con base en los resultados de la agrupación, cuando las partes del objeto votan por los centros y etiquetas del objeto, a cada voto que pertenece a la misma parte del objeto se le asigna un peso de acuerdo con su consistencia con los votos de otras partes del objeto en el mismo grupo de movimiento. Posteriormente, los picos, que corresponden a las hipótesis de detección en la imagen de Hough formada al sumar todos los votos ponderados, se vuelven más fáciles de encontrar. Por lo tanto, nuestro método funciona mejor tanto en las estimaciones de posición como en las de etiqueta. Los experimentos muestran la efectividad de nuestro método en términos de precisión de detección.Files
s13177-013-0074-8.pdf.pdf
Files
(28.3 MB)
Name | Size | Download all |
---|---|---|
md5:991ce894408e7be9e88ebcdf84c247fc
|
28.3 MB | Preview Download |
Additional details
Additional titles
- Translated title (Arabic)
- الكشف عن الكائن الأمامي عن طريق التجميع القائم على الحركة لأجزاء الكائن
- Translated title (French)
- Détection d'objets de premier plan par regroupement de parties d'objets basé sur le mouvement
- Translated title (Spanish)
- Detección de objetos en primer plano por agrupación basada en movimiento de partes de objetos
Identifiers
- Other
- https://openalex.org/W1969253094
- DOI
- 10.1007/s13177-013-0074-8
References
- https://openalex.org/W1496571393
- https://openalex.org/W1549083695
- https://openalex.org/W1551429860
- https://openalex.org/W1748744376
- https://openalex.org/W1777102342
- https://openalex.org/W1977470347
- https://openalex.org/W1995444699
- https://openalex.org/W2030536784
- https://openalex.org/W2106255337
- https://openalex.org/W2111308925
- https://openalex.org/W2113201641
- https://openalex.org/W2144409879
- https://openalex.org/W2166928547
- https://openalex.org/W2168373637
- https://openalex.org/W22745672
- https://openalex.org/W2543332268
- https://openalex.org/W2548546665
- https://openalex.org/W4212867824
- https://openalex.org/W4239450278
- https://openalex.org/W4251485470
- https://openalex.org/W4254268888