Texture-Generic Deep Shape-From-Template
Creators
- 1. Universidad de Alcalá
- 2. Universidad Rey Juan Carlos
- 3. Institut de Recherche contre les Cancers de l'Appareil Digestif
- 4. Universidad Blas Pascal
- 5. Institut Pascal
Description
Shape-from-Template (SfT) solves the registration and 3D reconstruction of a deformable 3D object, represented by the template, from a single image. Recently, methods based on deep learning have been able to solve SfT for the wide-baseline case in real-time, clearly surpassing classical methods. However, the main limitation of current methods is the need for fine tuning of the neural models to a specific geometry and appearance represented by the template texture map. We propose the first texture-generic deep learning SfT method which adapts to new texture maps at run-time, without the need for texture specific fine tuning. We achieve this by dividing the problem into a segmentation step and a registration and reconstruction step, both solved with deep learning. We include the template texture map as one of the neural inputs in both steps, training our models to adapt to different ones. We show that our method obtains comparable or better results to previous deep learning models, which are texture specific. It works in challenging imaging conditions, including complex deformations, occlusions, motion blur and poor textures. Our implementation runs in real-time, with a low-cost GPU and CPU.
Translated Descriptions
Translated Description (Arabic)
يحل الشكل من القالب (SfT) التسجيل وإعادة البناء ثلاثي الأبعاد لكائن ثلاثي الأبعاد قابل للتشوه، يمثله القالب، من صورة واحدة. في الآونة الأخيرة، تمكنت الأساليب القائمة على التعلم العميق من حل SfT للحالة الأساسية الواسعة في الوقت الفعلي، متجاوزة بشكل واضح الأساليب الكلاسيكية. ومع ذلك، فإن القيد الرئيسي للطرق الحالية هو الحاجة إلى الضبط الدقيق للنماذج العصبية إلى هندسة ومظهر محددين تمثلهما خريطة نسيج القالب. نقترح أول طريقة للتعلم العميق من الملمس والتي تتكيف مع خرائط الملمس الجديدة في وقت التشغيل، دون الحاجة إلى ضبط دقيق خاص بالملمس. نحقق ذلك من خلال تقسيم المشكلة إلى خطوة تجزئة وخطوة تسجيل وإعادة بناء، وكلاهما يتم حلهما من خلال التعلم العميق. نقوم بتضمين خريطة نسيج القالب كأحد المدخلات العصبية في كلتا الخطوتين، وتدريب نماذجنا على التكيف مع النماذج المختلفة. نظهر أن طريقتنا تحصل على نتائج مماثلة أو أفضل لنماذج التعلم العميق السابقة، والتي تكون محددة الملمس. وهو يعمل في ظروف التصوير الصعبة، بما في ذلك التشوهات المعقدة، والإطباق، وعدم وضوح الحركة وضعف القوام. يعمل تنفيذنا في الوقت الفعلي، مع وحدة معالجة رسومات (GPU) ووحدة معالجة مركزية (CPU) منخفضة التكلفة.Translated Description (French)
Shape-from-Template (SfT) résout le repérage et la reconstruction 3D d'un objet 3D déformable, représenté par le modèle, à partir d'une seule image. Récemment, les méthodes basées sur l'apprentissage profond ont pu résoudre le SfT pour le cas à large base en temps réel, dépassant clairement les méthodes classiques. Cependant, la principale limitation des méthodes actuelles est la nécessité d'un ajustement précis des modèles neuronaux à une géométrie et à une apparence spécifiques représentées par la carte de texture du modèle. Nous proposons la première méthode SfT d'apprentissage en profondeur généraliste de texture qui s'adapte à de nouvelles textures au moment de l'exécution, sans nécessiter de réglage fin spécifique à la texture. Nous y parvenons en divisant le problème en une étape de segmentation et une étape d'enregistrement et de reconstruction, toutes deux résolues par apprentissage profond. Nous incluons la carte de texture du modèle comme l'une des entrées neuronales dans les deux étapes, formant nos modèles à s'adapter à différents modèles. Nous montrons que notre méthode obtient des résultats comparables ou meilleurs aux modèles d'apprentissage profond précédents, qui sont spécifiques à la texture. Il fonctionne dans des conditions d'imagerie difficiles, y compris les déformations complexes, les occlusions, le flou de mouvement et les mauvaises textures. Notre implémentation fonctionne en temps réel, avec un processeur graphique et un processeur à faible coût.Translated Description (Spanish)
Shape-from-Template (SfT) resuelve el registro y la reconstrucción 3D de un objeto 3D deformable, representado por la plantilla, a partir de una sola imagen. Recientemente, los métodos basados en el aprendizaje profundo han sido capaces de resolver SfT para el caso de línea de base ancha en tiempo real, superando claramente a los métodos clásicos. Sin embargo, la principal limitación de los métodos actuales es la necesidad de ajustar los modelos neuronales a una geometría y apariencia específicas representadas por el mapa de textura de la plantilla. Proponemos el primer método de aprendizaje profundo SfT de textura genérica que se adapta a los nuevos mapas de textura en tiempo de ejecución, sin la necesidad de un ajuste fino específico de la textura. Logramos esto dividiendo el problema en un paso de segmentación y un paso de registro y reconstrucción, ambos resueltos con aprendizaje profundo. Incluimos el mapa de texturas de la plantilla como una de las entradas neuronales en ambos pasos, entrenando a nuestros modelos para que se adapten a los diferentes. Mostramos que nuestro método obtiene resultados comparables o mejores que los modelos de aprendizaje profundo anteriores, que son específicos de la textura. Funciona en condiciones de imagen desafiantes, que incluyen deformaciones complejas, oclusiones, desenfoque de movimiento y texturas deficientes. Nuestra implementación se ejecuta en tiempo real, con una GPU y CPU de bajo coste.Files
      
        09435325.pdf.pdf
        
      
    
    
      
        Files
         (245 Bytes)
        
      
    
    | Name | Size | Download all | 
|---|---|---|
| md5:701022ad6388524758be85c1460aaed8 | 245 Bytes | Preview Download | 
Additional details
Additional titles
- Translated title (Arabic)
- الملمس - الشكل العميق العام من القالب
- Translated title (French)
- Texture-Generic Deep Shape-From-Template
- Translated title (Spanish)
- Textura-Generic Deep Shape-From-Template
Identifiers
- Other
- https://openalex.org/W3161447300
- DOI
- 10.1109/access.2021.3082011
            
              References
            
          
        - https://openalex.org/W125693051
- https://openalex.org/W1519579683
- https://openalex.org/W1533861849
- https://openalex.org/W1537530125
- https://openalex.org/W1677409904
- https://openalex.org/W1803059841
- https://openalex.org/W1901129140
- https://openalex.org/W1905829557
- https://openalex.org/W1906917228
- https://openalex.org/W1915221348
- https://openalex.org/W1921575874
- https://openalex.org/W1939266004
- https://openalex.org/W1998989074
- https://openalex.org/W1999264281
- https://openalex.org/W2000210898
- https://openalex.org/W2025599623
- https://openalex.org/W2031614119
- https://openalex.org/W2047684811
- https://openalex.org/W2054511765
- https://openalex.org/W2082989281
- https://openalex.org/W2088900880
- https://openalex.org/W2091375548
- https://openalex.org/W2101346088
- https://openalex.org/W2103559027
- https://openalex.org/W2112009428
- https://openalex.org/W2113325037
- https://openalex.org/W2115507602
- https://openalex.org/W2121717851
- https://openalex.org/W2143546616
- https://openalex.org/W2150545569
- https://openalex.org/W2151103935
- https://openalex.org/W2151636374
- https://openalex.org/W2194775991
- https://openalex.org/W2205997434
- https://openalex.org/W2251436415
- https://openalex.org/W2300779272
- https://openalex.org/W2319845836
- https://openalex.org/W2346663546
- https://openalex.org/W2527436263
- https://openalex.org/W2546534188
- https://openalex.org/W2557065683
- https://openalex.org/W2560474170
- https://openalex.org/W2738185184
- https://openalex.org/W2753858305
- https://openalex.org/W2771376539
- https://openalex.org/W2798302325
- https://openalex.org/W2883983474
- https://openalex.org/W2901177844
- https://openalex.org/W2903516498
- https://openalex.org/W2913429812
- https://openalex.org/W2962771259
- https://openalex.org/W2962960377
- https://openalex.org/W2962999795
- https://openalex.org/W2963876278
- https://openalex.org/W2963888409
- https://openalex.org/W2964121744
- https://openalex.org/W2971277561
- https://openalex.org/W3011016216
- https://openalex.org/W3013474837
- https://openalex.org/W3097139398
- https://openalex.org/W3162155970
- https://openalex.org/W4289082871
- https://openalex.org/W4291497790
- https://openalex.org/W764651262