Probabilistic multi-modal depth estimation based on camera–LiDAR sensor fusion
- 1. Université de Montréal
- 2. Universidad Autónoma de Occidente
- 3. Aurora Flight Sciences (United States)
Description
Abstract Multi-modal depth estimation is one of the key challenges for endowing autonomous machines with robust robotic perception capabilities. There have been outstanding advances in the development of uni-modal depth estimation techniques based on either monocular cameras, because of their rich resolution, or LiDAR sensors, due to the precise geometric data they provide. However, each of these suffers from some inherent drawbacks, such as high sensitivity to changes in illumination conditions in the case of cameras and limited resolution for the LiDARs. Sensor fusion can be used to combine the merits and compensate for the downsides of these two kinds of sensors. Nevertheless, current fusion methods work at a high level. They process the sensor data streams independently and combine the high-level estimates obtained for each sensor. In this paper, we tackle the problem at a low level, fusing the raw sensor streams, thus obtaining depth estimates which are both dense and precise, and can be used as a unified multi-modal data source for higher-level estimation problems. This work proposes a conditional random field model with multiple geometry and appearance potentials. It seamlessly represents the problem of estimating dense depth maps from camera and LiDAR data. The model can be optimized efficiently using the conjugate gradient squared algorithm. The proposed method was evaluated and compared with the state of the art using the commonly used KITTI benchmark dataset.
Translated Descriptions
Translated Description (Arabic)
يعد تقدير العمق المتعدد الوسائط أحد التحديات الرئيسية لمنح الآلات المستقلة قدرات إدراك روبوتية قوية. كانت هناك تطورات بارزة في تطوير تقنيات تقدير العمق أحادي النمط بناءً على الكاميرات أحادية العين، بسبب دقتها الغنية، أو مستشعرات ليدار، بسبب البيانات الهندسية الدقيقة التي توفرها. ومع ذلك، يعاني كل منها من بعض العيوب الكامنة، مثل الحساسية العالية للتغيرات في ظروف الإضاءة في حالة الكاميرات والدقة المحدودة لتقنيات ليدار. يمكن استخدام اندماج المستشعر للجمع بين المزايا والتعويض عن الجوانب السلبية لهذين النوعين من المستشعرات. ومع ذلك، تعمل طرق الاندماج الحالية على مستوى عالٍ. يعالجون تدفقات بيانات المستشعر بشكل مستقل ويجمعون التقديرات عالية المستوى التي تم الحصول عليها لكل مستشعر. في هذه الورقة، نعالج المشكلة على مستوى منخفض، وندمج تيارات المستشعر الخام، وبالتالي نحصل على تقديرات العمق الكثيفة والدقيقة، ويمكن استخدامها كمصدر بيانات موحد متعدد الوسائط لمشاكل التقدير عالية المستوى. يقترح هذا العمل نموذج مجال عشوائي مشروط مع إمكانات هندسية ومظهر متعددة. وهو يمثل بسلاسة مشكلة تقدير خرائط العمق الكثيفة من الكاميرا وبيانات ليدار. يمكن تحسين النموذج بكفاءة باستخدام خوارزمية مربع التدرج المترافق. تم تقييم الطريقة المقترحة ومقارنتها بأحدث التقنيات باستخدام مجموعة البيانات المعيارية KITTI الشائعة الاستخدام.Translated Description (French)
Résumé L'estimation multimodale de la profondeur est l'un des principaux défis pour doter les machines autonomes de capacités de perception robotisées robustes. Il y a eu des progrès remarquables dans le développement de techniques d'estimation de profondeur unimodales basées soit sur des caméras monoculaires, en raison de leur résolution riche, soit sur des capteurs LiDAR, en raison des données géométriques précises qu'ils fournissent. Cependant, chacun d'entre eux souffre de certains inconvénients inhérents, tels qu'une grande sensibilité aux changements de conditions d'éclairage dans le cas des caméras et une résolution limitée pour les LiDAR. La fusion des capteurs peut être utilisée pour combiner les avantages et compenser les inconvénients de ces deux types de capteurs. Néanmoins, les méthodes de fusion actuelles fonctionnent à un niveau élevé. Ils traitent les flux de données des capteurs indépendamment et combinent les estimations de haut niveau obtenues pour chaque capteur. Dans cet article, nous abordons le problème à un niveau bas, en fusionnant les flux de capteurs bruts, obtenant ainsi des estimations de profondeur à la fois denses et précises, et pouvant être utilisées comme source de données multimodale unifiée pour les problèmes d'estimation de niveau supérieur. Ce travail propose un modèle de champ aléatoire conditionnel avec des potentiels de géométrie et d'apparence multiples. Il représente de manière transparente le problème de l'estimation de cartes de profondeur denses à partir de données de caméra et de LiDAR. Le modèle peut être optimisé efficacement à l'aide de l'algorithme au carré à gradient conjugué. La méthode proposée a été évaluée et comparée à l'état de la technique à l'aide de l'ensemble de données de référence KITTI couramment utilisé.Translated Description (Spanish)
Resumen La estimación multimodal de la profundidad es uno de los desafíos clave para dotar a las máquinas autónomas de sólidas capacidades de percepción robótica. Ha habido avances sobresalientes en el desarrollo de técnicas de estimación de profundidad unimodal basadas en cámaras monoculares, debido a su rica resolución, o sensores LiDAR, debido a los datos geométricos precisos que proporcionan. Sin embargo, cada uno de estos tiene algunos inconvenientes inherentes, como una alta sensibilidad a los cambios en las condiciones de iluminación en el caso de las cámaras y una resolución limitada para los LiDAR. La fusión de sensores se puede utilizar para combinar los méritos y compensar las desventajas de estos dos tipos de sensores. Sin embargo, los métodos de fusión actuales funcionan a un alto nivel. Procesan los flujos de datos del sensor de forma independiente y combinan las estimaciones de alto nivel obtenidas para cada sensor. En este documento, abordamos el problema a un nivel bajo, fusionando los flujos de sensores sin procesar, obteniendo así estimaciones de profundidad que son densas y precisas, y se pueden utilizar como una fuente de datos multimodal unificada para problemas de estimación de mayor nivel. Este trabajo propone un modelo de campo aleatorio condicional con múltiples potenciales de geometría y apariencia. Representa a la perfección el problema de estimar mapas de profundidad densos a partir de datos de cámaras y LiDAR. El modelo se puede optimizar de manera eficiente utilizando el algoritmo de gradiente cuadrado conjugado. El método propuesto se evaluó y comparó con el estado de la técnica utilizando el conjunto de datos de referencia KITTI de uso común.Files
s00138-023-01426-x.pdf.pdf
Files
(4.3 MB)
| Name | Size | Download all |
|---|---|---|
|
md5:fbdc5ca7c1c85a0b7071e8d5394e6e25
|
4.3 MB | Preview Download |
Additional details
Additional titles
- Translated title (Arabic)
- تقدير العمق الاحتمالي متعدد الوسائط بناءً على اندماج مستشعر الكاميرا ليدار
- Translated title (French)
- Estimation de profondeur multimodale probabiliste basée sur la fusion caméra-capteur LiDAR
- Translated title (Spanish)
- Estimación de profundidad multimodal probabilística basada en la fusión cámara-sensor LiDAR
Identifiers
- Other
- https://openalex.org/W4385374898
- DOI
- 10.1007/s00138-023-01426-x
References
- https://openalex.org/W125693051
- https://openalex.org/W1597254465
- https://openalex.org/W1602724287
- https://openalex.org/W1748582431
- https://openalex.org/W1803059841
- https://openalex.org/W1905829557
- https://openalex.org/W1915250530
- https://openalex.org/W1923779427
- https://openalex.org/W1982840500
- https://openalex.org/W1990077509
- https://openalex.org/W2024635814
- https://openalex.org/W2029496725
- https://openalex.org/W2083047701
- https://openalex.org/W2104599718
- https://openalex.org/W2109198903
- https://openalex.org/W2115579991
- https://openalex.org/W2118246710
- https://openalex.org/W2118304946
- https://openalex.org/W2124907686
- https://openalex.org/W2125416623
- https://openalex.org/W2132947399
- https://openalex.org/W2133297572
- https://openalex.org/W2150066425
- https://openalex.org/W2336968928
- https://openalex.org/W2397636522
- https://openalex.org/W2412454633
- https://openalex.org/W2419502228
- https://openalex.org/W2436453945
- https://openalex.org/W2512689497
- https://openalex.org/W2520707372
- https://openalex.org/W2554243884
- https://openalex.org/W2567028727
- https://openalex.org/W2593414960
- https://openalex.org/W2609883120
- https://openalex.org/W2739642007
- https://openalex.org/W2794739174
- https://openalex.org/W2802406520
- https://openalex.org/W2885093229
- https://openalex.org/W2892161145
- https://openalex.org/W2897245365
- https://openalex.org/W2962809185
- https://openalex.org/W2963045776
- https://openalex.org/W2963488291
- https://openalex.org/W2963591054
- https://openalex.org/W2963867516
- https://openalex.org/W2963956866
- https://openalex.org/W2964014680
- https://openalex.org/W2968373168
- https://openalex.org/W2969202876
- https://openalex.org/W2986701260
- https://openalex.org/W2990926822
- https://openalex.org/W3008003211
- https://openalex.org/W3011395398
- https://openalex.org/W3035289617
- https://openalex.org/W3115288548
- https://openalex.org/W3129529899
- https://openalex.org/W3168472259
- https://openalex.org/W4212991200
- https://openalex.org/W4312824283
- https://openalex.org/W96246064