Équipe IGG : Informatique Géométrique et Graphique

Différences entre les versions de « Apparence et Mouvement »

De Équipe IGG : Informatique Géométrique et Graphique
Aller à la navigation Aller à la recherche
 
(139 versions intermédiaires par 8 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
 +
{{PAGE_Begin}}
 
__NOTOC__
 
__NOTOC__
 
[[en:Appearance and Movement]]
 
[[en:Appearance and Movement]]
'''[[Accueil_new|Retour à l'acceuil]]'''
 
  
==Apparence et Mouvement==
+
'''[[Accueil_new|Retour à l'accueil]]'''
Bilan de 2011 à mi-2016 et prospective du thème Apparence et Mouvement
+
 
 +
===Contexte ===
 +
La création de mondes virtuels 3D trouve des applications dans des domaines variés, aussi bien technologiques comme des simulateurs 3D, du prototypage virtuel pour l’aide à la prise de décision, des catalogues et archives 3D, etc., qu’artistiques avec par exemple la création de média à des fins ludiques ou éducatives. Ces mondes deviennent de plus en plus volumineux et de plus en plus riches en détails, permettant ainsi des rendus d’images de synthèse difficiles à distinguer de la réalité. Une plus grande richesse visuelle est obtenue par une définition précise d'objets, en termes de forme et mouvement, et par un habillage sophistiqué de ces modèles 3D pour leur donner des apparences réalistes. Les techniques d'acquisition de la forme et du mouvement à partir de scanners 3D ont permis d'augmenter considérablement la qualité et quantité de modèles produits, mais il reste d'importantes limites, notamment en lien avec la taille des modèles et lorsque l'on souhaite transposer les mouvements acquis sur un modèle particulier à un autre modèle.
 +
 
 +
Parallèlement, l'habillage, appelé « la texture » en informatique graphique, consiste à plaquer une image 2D sur l’objet 3D, comme un papier peint. Il permet d’ajouter des détails à petite échelle sur les surfaces : des veines pour du bois, des briques pour une façade ou des brins d’herbe pour une pelouse. Avec la définition croissante des dispositifs d’affichage, la création de textures très haute définition, c’est-à-dire dépassant les centaines de Mega-pixels, est devenue incontournable. Mais la création de textures de cette taille, avec des outils classiques d’édition, presque pixel par pixel, devient un processus fastidieux pour les infographistes, et donc coûteux à produire. Les techniques d'acquisition sont elles aussi limitées car elles contraignent fortement les conditions dans lesquelles un matériau peut être acquis : conditions d'éclairage spécifiques, accessibilité du matériau, etc.
  
 
===Objectifs / Challenges===
 
===Objectifs / Challenges===
 
+
Notre premier challenge est de mettre au point des méthodes d'analyse et de segmentation des données produites par les scanners, pour faciliter d'une part la création de modèles 3D, et d'autre part pour des applications de construction d'atlas statistiques. Notre second challenge est de développer des outils permettant de produire automatiquement des textures "par l'exemple", c'est-à-dire à partir d'échantillons de textures extraits d'images. Pour cela il est nécessaire de se doter d'outils d'analyse adaptés, permettant de classifier les textures et de les extraire à différentes échelles. Nous souhaitons aussi représenter les matériaux d'objets numérisés à l'aide de textures, générées à partir d'un ensemble de photographies prises avec peu de contraintes, et pouvant être utilisées pour habiller des modèles 3D quelconques et être visualisées de façon réaliste dans différentes conditions d'éclairage virtuel.
  
 
===Participants permanents===
 
===Participants permanents===
 
* Un professeur : [[Jean-Michel Dischler]]
 
* Un professeur : [[Jean-Michel Dischler]]
 
* Une chargée de recherche : [http://igg.unistra.fr/People/seo/Home.html Hyewon Seo]
 
* Une chargée de recherche : [http://igg.unistra.fr/People/seo/Home.html Hyewon Seo]
* Cinq maîtres de conférences : [[Rémi Allègre]], Karim Chibout, Frédéric Cordier, Arash Habibi, [http://dpt-info.u-strasbg.fr/~sauvage Basile Sauvage]
+
* Cinq maîtres de conférences : [[Rémi Allègre]], Karim Chibout, Frédéric Cordier, Arash Habibi, [[Basile Sauvage]]
* Un ingénieur : Frédéric Larue
+
* Trois ingénieurs de recherche : Frédéric Larue (2011-), Olivier Génevaux (2011-2015), Sylvain Thery (2015-)
 +
* 5 Doctorants : Geoffrey Guingo (CDD à partir du 1/10/2015 ERC Marie-Paule CANI et contrat Allegorithmic), Guoliang Luo (Contrat Projet SHARED du 10/2011 au 12/2014 (Thèse soutenue le 04/11/2014)), Vasyl Mykhalchuk (Contrat Projet SHARED du 11/2011 au 04/2015 (Thèse soutenue le 09/04/2015)), Alexandre Ribard (Allocataire UNISTRA du 1/11/2015 au 30/04/2016), Kenneth Vanhoey (Allocataire UNISTRA du 10/2010 au 09/2013 (Thèse soutenue le 18/02/2014)).
 +
 
 +
===Résultats===
 +
 
 +
=====Analyse des formes, recalage, et segmentation de données dynamiques =====
 +
<!--Grâce au développement récent des technologies d’imagerie, nous avons accès aux données de formes et de déformations de la peau ou des organes des humains en utilisant soit un système optique de capture de mouvements soit un scanner pour l’imagerie médicale. Par rapport aux méthodes existantes qui sont essentiellement basées sur l’analyse des formes statiques [[http://icube-publis.unistra.fr/2-MCS13 2-MCS13]], nous avons développé des nouvelles méthodes pour l’analyse de la forme qui permet d’exploiter les données de mouvements [[http://icube-publis.unistra.fr/2-SKCC13 2-SKCC13]]. Ceux méthodes sont les premières qui répondent aux problèmes de segmentation [[http://icube-publis.unistra.fr/4-LSC14 4-LSC14]][[http://icube-publis.unistra.fr/4-LLS15 4-LLS15]], d’extraction de points caractéristiques [[http://icube-publis.unistra.fr/4-MSC14 4-MSC14]][[http://icube-publis.unistra.fr/2-MSC15 2-MSC15]], de calcul de similarité [[http://icube-publis.unistra.fr/4-LCS14 4-LCS14]][[http://icube-publis.unistra.fr/8-Luog14 8-Luog14]][[http://icube-publis.unistra.fr/2-LCS16 2-LCS16]] et de la mise-en-correspondance [[http://icube-publis.unistra.fr/8-Mykh15 8-Mykh15] des données dynamiques.-->
 +
Grâce au développement récent des technologies d’imagerie, nous avons accès aux données de formes et de déformations de la peau ou des organes des humains en utilisant soit un système optique de capture de mouvements ou soit un scanner pour l’imagerie médicale. Par rapport aux méthodes existantes qui sont essentiellement basées sur l’analyse des formes statiques [[http://icube-publis.unistra.fr/2-MCS13 2-MCS13]], nous avons développé de nouvelles méthodes pour l’analyse de la forme qui permettent d’exploiter les données de mouvements [[http://icube-publis.unistra.fr/2-SKCC13 2-SKCC13]]. Ces méthodes sont les premières qui répondent aux problèmes de segmentation [[http://icube-publis.unistra.fr/4-LSC14 4-LSC14], [http://icube-publis.unistra.fr/4-LLS15 4-LLS15]], d’extraction de points caractéristiques [[http://icube-publis.unistra.fr/4-MSC14 4-MSC14], [http://icube-publis.unistra.fr/2-MSC15 2-MSC15]], de calcul de similarité [[http://icube-publis.unistra.fr/4-LCS14 4-LCS14], [http://icube-publis.unistra.fr/8-Luog14 8-Luog14], [http://icube-publis.unistra.fr/2-LCS16 2-LCS16]] et de mise en correspondance [[http://icube-publis.unistra.fr/8-Mykh15 8-Mykh15]] sur les données dynamiques.
 +
<center>
 +
{|
 +
|valign="top"|[[Image:img_featurepoints.png|left|thumb|x250px|[2-MSC15]  Illustration de l'extraction de
 +
points caractéristiques détectés à l'aide de notre technique AniM-DoG sur différentes poses de maillages animés.
 +
La couleur d'une sphère représente l'échelle temporelle (du bleu au rouge) des points caractéristiques,
 +
tandis que son rayon indique l'échelle spatiale.]]
 +
|valign="top"|[[Image:img_spatialmatching.png|left|thumb|x250px|  Etant donné un couple de maillages
 +
animés présentant des mouvements similaires sémantiquement, nous calculons un ensemble peu dense de
 +
points caractéristiques sur chaque maillage, ainsi que les correspondances spatiales entre eux
 +
de façon à ce que des points ayant des mouvements similaires soient mis en correspondance.]]
 +
|}
 +
</center>
 +
 
 +
=====Reconstruction de l'apparence=====
 +
Les fonctions paramétriques 2D de couleur sont très utilisées en rendu basé image ou en ré-éclairage d'images. Ces fonctions permettent d'exprimer la couleur d'un point en fonction d'un paramètre directionnel continu : la direction de vue ou la direction d'éclairage incident. Produire de telles fonctions à partir de données acquises (photographies) est une approche prometteuse mais difficile. Acquérir des données de façon dense et uniforme n'est pas toujours possible. Les données sont en général peu denses, distribuées de façon non uniformes et bruitées. Pour pallier à ces difficultés, nous avons proposé une méthode de reconstruction de fonctions de ''radiance'' pour des objets numérisés, à partir de photographies [[http://icube-publis.unistra.fr/2-VSGL13 2-VSGL13]]. Notre méthode permet de visualiser les objets de façon réaliste dans leurs environnements lumineux originaux. Nous avons aussi développé une méthode de simplification de maillages auxquels sont attachées des fonctions de radiance [[http://icube-publis.unistra.fr/2-VSKL15 2-VSKL15]], permettant d'obtenir des modèles d'objets numérisés avec géométrie et apparence particulièrement compacts.
 +
<center>
 +
{|
 +
|valign="top"|[[Image:VSGLD13teaser.png|left|thumb|x250px|[2-VSGL13] Partant d'un ensemble de photos prises à main levée, une représentation virtuelle de l'apparence d'un objet est reconstruite. Cette apparence encode entre autres les effets spéculaires.]]
 +
|valign="top"|[[Image:VSKLD15teaser.png|left|thumb|x250px|[2-VSKL15] Des objets 3D virtuels avec leur apparence sont simplifiés : il s'agit de les alléger en minimisant la perte de qualité visuelle.]]
 +
|}
 +
</center>
 +
 
 +
=====Modélisation et synthèse de textures=====
 +
Les textures sont cruciales pour le réalisme des mondes virtuels 3D. Afin d'alléger le travail des artistes qui doivent dessiner des mondes gigantesques, nous avons développé des méthodes permettant de générer automatiquement des textures haute résolution à partir d'une image d'entrée unique, avec contrôle de la préservation des motifs, du caractère aléatoire de leur distribution, et de la variété du contenu de la texture générée [[http://icube-publis.unistra.fr/2-GDG12 2-GDG12], [http://icube-publis.unistra.fr/2-GDG12a 2-GDG12a], [http://icube-publis.unistra.fr/2-VSLD13 2-VSLD13], [http://icube-publis.unistra.fr/2-GSVD14 2-GSVD14]]. En complément, dans le cadre d'une collaboration avec l'Université de Yale, nous nous sommes intéressés à l'analyse de texture [[http://icube-publis.unistra.fr/2-LSAD16 2-LSAD16]] afin d'améliorer le contrôle des algorithmes de synthèse. On remarquera en particulier trois publications [[http://icube-publis.unistra.fr/2-VSLD13 2-VSLD13], [http://icube-publis.unistra.fr/2-GSVD14 2-GSVD14],[http://icube-publis.unistra.fr/2-LSAD16 2-LSAD16]] dans ''ACM Transactions on Graphics'', considérée comme la revue la plus réputée en informatique graphique. Les contributions en matière de synthèse de textures ont permis à Jean-Michel Dischler d'être invité au séminaire Real-World Visual Computing au Leibniz-Zentrum für Informatik (Schloss Dagstuhl) en octobre 2013.
 +
<center>
 +
{|
 +
|valign="top"|[[Image:VSLD13teaser.png|left|thumb|x220px|[2-VSLD13] Des textures sont synthétisées à la volée sur GPU, à partir d'échantillons d'exemples à plusieurs échelles.]]
 +
|valign="top"|[[Image:GSVDG14teaser.png|left|thumb|x220px|[2-GSVD14] Des textures sont synthétisées à la volée sur GPU, grâce à une analyse spectrale.]]
 +
|valign="top"|[[Image:LSADDR16_Labeling_results.png|left|thumb|x220px|[2-LSAD16] Des cartes de labels multi-échelles sont obtenues à l'aide de notre méthode d'analyse de textures. Une application possible est l'édition interactive de textures.]]
 +
|}
 +
</center>
 +
<!--|valign="top"|[[Image:LSADDR_16_Rep_Image_50.png|left|thumb|x250px|[2-LSAD16] Des cartes de labels multi-échelles sont obtenues à l'aide de notre méthode d'analyse. Une application possible est la génération automatique de palettes pour l'édition interactive de textures.]]-->
 +
 
 +
===Perspectives  ===
 +
 
 +
Comme mentionné plus haut, les progrès des technologies d'acquisition de la forme, du mouvement et de l'apparence
 +
ont conduit à une augmentation considérable de la qualité et de la quantité de modèles 3D produits. Un des principaux défis futurs pour les applications en informatique graphique est d'améliorer l'exploitation de ces données afin de produire : 1) des modèles 3D de meilleure qualité avec moins d'interventions de l'utilisateur, et 2) des contenus plus facilement contrôlables, qui ne soient pas seulement des copies numériques des objets numérisés. Les progrès des technologies d'acquisition ne sont pas suffisants : le cœur des recherches futures est la mise au point des méthodes de traitement de données 3D permettant d'améliorer la production de contenus 3D à partir des données acquises. Dans ce contexte, des outils d'analyse spécialisés, ainsi que des techniques permettant de les évaluer de façon objective, manquent. Nos travaux futurs aborderont ce défi central.
 +
 
 +
Dans le domaine de la capture de mouvement, notre objectif est de 1) valider des méthodes de calcul pour l'extraction des zones de saillance, 2) développer une technique de prédiction des mouvements oculaires, et 3) mettre au point des méthodes efficaces permettant de construire la vérité terrain pour des zones de saillance spatio-temporelles. En s'appuyant sur ces méthodes, nous nous intéresserons au développement d'un modèle statistique (ou atlas) fondé sur des représentations compactes de données 4D très redondantes. Dans le domaine des textures, notre objectif futur est de permettre la visualisation de modèles 3D avec apparence dans des environnements lumineux arbitraires, ce qui nécessite des outils d'analyse plus sophistiqués pour extraire les propriétés intrinsèques des matériaux et les classifier. En plus d'améliorer la qualité de l'apparence, l'analyse des données d'entrée nous permettra également de produire des textures de contenus plus facilement contrôlables, comme des textures avec variations spatiales qui dépendent de la position dans la texture et de la position sur la surface d'un modèle 3D.
 +
 
 +
<!-- de Dominique à tous :
 +
ATTENTION POUR LES PERSPECTIVES C'EST 1/2 PAGE PAR THEME
 +
DONC NE PAS REPRENDRE TOUS LES POINTS PRECEDENTS
 +
MAIS DEVELOPPER UNE VISION GLOBALE DU THEME
 +
LE PARAGRAPHE "Notre projet est de créer un pont" POURRAIT SUFFIRE
 +
 
 +
=====Plateformes matérielles et logicielles=====
 +
''de Basile à tous : proposition à valider de regroupement des deux plateformes''
 +
 
 +
Nous souhaitons continuer à développer la '''plateforme''' [http://icube-igg.unistra.fr/fr/index.php/ExRealis ExRealis], comme support '''matériel et logiciel''' à nos activités de '''numérisation''', et également valoriser cette plateforme dans le cadre de prestations.
 +
 
 +
Nous avons initié une '''plateforme open source dédiée à l’analyse et à la synthèse de texture''', qui se présente comme une surcouche à la bibliothèque ITK (Insight Segmentation and Registration Toolkit). Elle est destinée en premier lieu à faire du développement collaboratif, puis à rendre publics des codes accompagnant nos publications.
 +
 
 +
 
 +
=====Plateforme matérielle et logicielle de numérisation=====
 +
Nous souhaitons continuer à développer la plateforme [http://icube-igg.unistra.fr/fr/index.php/ExRealis ExRealis], comme support matériel et logiciel à nos activités, et également valoriser cette plateforme dans le cadre de prestations.
 +
 
 +
=====Vérité terrain et modèle de prédiction pour l’extraction des zones de saillance=====
 +
L’obtention de la vérité terrain pour les saillances spatio-temporelles et la mise-en-correspondance sur les maillages dynamiques (animés) est un défi ouvert. Nous développons actuellement des méthodes pour construire la vérité terrain sur les maillages statiques basées sur la vision humain (en collaboration avec  Xlim et LIRIS), en utilisant un eye-tracker. Avec cette construction de la vérité terrain, nous pourrons ensuite travailler sur des problèmes de plus haut niveau, comme par exemple la validation de modèles computationnelles pour les zones de saillance, la prédiction du mouvements des yeux, et proposer des méthodes efficaces pour la construction de la vérité terrain pour les saillances spatio-temporelles.
 +
 
 +
=====Construction d’un atlas et modèles de prédiction pour les données de mouvement=====
 +
Nous sommes intéressés par l’acquisition, l’analyse, la représentation et la modélisation statistique de données de dimension-4 du corps humain. En particulier, nous allons travailler sur le développement d’un modèle statistique (i.e. atlas) basé sur la représentation compacte de données 4D qui sont redondantes. Ainsi, nous souhaitons développer des méthodes de prédiction pour le mouvement  et le changement de la forme en utilisant cet atlas.
 +
 
 +
=====Traitement de l'apparence et synthèse de textures=====
 +
Notre projet est de créer un pont entre les activités de reconstruction de l'apparence et les activités de synthèse de texture. L’objectif est de prendre pour exemple des objets réels numérisés, et de générer automatiquement des apparences similaires pour d’autres objets 3D. Nous avons également initié des travaux sur des textures dynamiques pour des objets animés, en collaboration avec Marie-Paule Cani (équipe INRIA IMAGINE). Pour atteindre ces objectifs, il reste plusieurs verrous à lever.
 +
 
 +
Concernant la reconstruction de l’apparence à partir des données numérisées, nous voulons aller plus loin que la visualisation d'objets avec leurs conditions d'éclairage d'acquisition. La prochaine étape est de permettre la visualisation de l'objet dans n’importe quel environnement, ce qui nécessite de reconstruire l’environnement d’acquisition puis de classifier et d’estimer les propriétés intrinsèques des matériaux. Les matériaux doivent être représentés par des couches de textures compatibles avec les moteurs de rendu du marché (couleur diffuse, couleur spéculaire, rugosité, occultation ambiante, etc.). Ces problématiques sont abordées dans la thèse d'Alexandre Ribard commencée au 1/11/2015, dirigée par Jean-Michel Dischler et co-encadrée par Rémi Allègre.
 +
 
 +
Concernant la représentation de l'apparence, nous souhaitons aller plus loin en mettant au point des techniques algorithmiques pour synthétiser l'apparence des matériaux par des méthodes à partir d'échantillons ou de façon procédurale. Nous savons pour l’instant synthétiser des textures de couleur. La synthèse conjointe d’autres propriétés qui contribuent à l’apparence (la réflectivité par exemple) posent de nouvelles difficultés. En outre, nos méthodes de synthèse génèrent actuellement une apparence similaire dans toute la texture. Nous souhaitons générer des apparences différentes dans différentes parties de la texture, et donc sur différentes parties d'un modèle 3D.
 +
 
 +
Nous souhaitons également intégrer un aspect temporel dans la synthèse de texture, avec la génération et le contrôle de textures dynamiques sur des surfaces elles-mêmes animées.
 +
Les scènes 3D sont souvent animées, soit grâce au mouvement et à la déformation des objets géométriques, soit grâce à des textures qui varient au cours du temps.
 +
Les méthodes actuelles traitent généralement l'un ou l'autre aspect, exclusivement.
 +
Pour certains phénomènes naturels pourtant, l'apparence (encodée dans la texture) et la géométrie doivent être dynamiques toutes les deux : c'est le cas des coulées de lave, des avalanches ou des vagues par exemple.
 +
Ces problématiques sont abordées dans la thèse de Geoffrey Guingo commencée au 1/10/2015, sous la co-direction de Jean-Michel Dischler et de Marie-Paule Cani, et co-encadrée par Basile Sauvage.
 +
 
 +
=====Plateforme d'analyse et de synthèse de textures=====
 +
Nous avons initié une plateforme open source dédiée à l’analyse et à la synthèse de texture, qui se présente comme une surcouche à la bibliothèque ITK (Insight Segmentation and Registration Toolkit). Elle est destinée en premier lieu à faire du développement collaboratif, puis à rendre publics des codes accompagnant nos publications.
  
===Autres participants===
+
=====Modélisation géométrique par croquis=====
* Doctorants :
+
Le dernier axe concerne la modélisation géométrique par croquis. L'objectif sera de développer des méthodes qui permettent de reconstruire des formes 3D à partir de croquis. L’intérêt de cet axe recherche est de permettre aux personnes sans connaissance en modélisation 3D de créer des formes facilement et rapidement.
 +
-->
  
===Publication===
+
<!--
 +
pour la reconstruction des propriétés photométriques d'objets numérisés à partir de photographies, sous la forme de fonctions de radiance
 +
-->
  
===Résultats===
+
<!--
 +
Par ailleurs, nous produisons des textures à partir d'exemples spécifiques: des images qui représentent un échantillon de matériau homogène. On parle de synthèse de textures « par l'exemple ».
 +
-->
 +
 
 +
<!--
 +
proposant une chaine de traitements automatiques permettant de produire des modèles géométriques détaillés et de reconstruire les propriétés photométriques de la surface des objets à partir de photographies.
 +
-->
 +
 
 +
<!--
 +
Concernant la reconstruction de l’apparence à partir des données numérisées, nous savons pour l'instant reconstruire des fonctions de radiance, qui permettent de visualiser l’objet dans son environnement lumineux original. La prochaine étape est de permettre la visualisation de l'objet dans n’importe quel environnement, ce qui nécessite de reconstruire l’environnement d’acquisition puis d’estimer les propriétés intrinsèques des matériaux.
 +
 
 +
Il s'agit classifier les différents matériaux présents sur une surface, afin de pouvoir estimer leurs paramètres, puis de les synthétiser séparément.
  
* '''Titre 1''' (thèse XXX) :
+
Les matériaux doivent par ailleurs être représentés par des couches de textures compatibles avec les moteurs de rendu du marché (couleur diffuse, couleur spéculaire, rugosité, occultation ambiante, etc.).
 +
-->
  
* '''Titre 2''' (thèse YYY) :
+
<!--
 +
===Objectifs / Challenges (ancienne version)===
  
 +
La création de mondes virtuels 3D trouve des applications dans des domaines variés, aussi bien technologiques comme des simulateurs 3D, du prototypage virtuel pour l’aide à la prise de décision, des catalogues et archives 3D, etc., qu’artistiques avec par exemple la création de média à des fins ludiques ou éducatives. Ces mondes deviennent de plus en plus volumineux et de plus en plus riches en détails, permettant ainsi des rendus d’images de synthèse difficiles à distinguer de la réalité. Une plus grande richesse visuelle est obtenue par une définition précise d'objets (forme et mouvement) et par un habillage sophistiqué de ces modèles 3D (apparence). Les techniques d'acquisition de la forme et du mouvement (scanners 3D) ont permis d'augmenter considérablement la qualité et quantité de modèles produits, mais il reste d'importantes limites, notamment de taille des modèles et surtout lorsque l'on souhaite transposer les mouvements acquis sur un modèle particulier à un autre objet.
 +
Le challenge consiste alors à analyser et segmenter les données produites par les scanners, par exemple pour la construction d'atlas statistiques.
 +
Parallèlement, l'habillage, appelé « la texture » en informatique graphique, consiste à plaquer une image 2D sur l’objet 3D, comme un papier peint. Il permet d’ajouter des détails à petite échelle sur les surfaces : des veines pour du bois, des briques pour une façade ou des brins d’herbe pour une pelouse. Avec la définition croissante des dispositifs d’affichage, la création de textures très haute définition, c’est-à-dire dépassant les centaines de Mega-pixels, est devenue incontournable. Mais la création de textures de cette taille, avec des outils classiques d’édition presque pixel par pixel, devient un processus fastidieux pour les infographistes et donc coûteux en matière de production. Les techniques d'acquisition sont elles aussi limitées car ils contraignent fortement les conditions dans lesquels un matériaux peut être acquis: conditions d'éclairage précises, accessibilité du matériaux, etc. Le challenge consiste alors à analyser l'information que produit un ensemble de photographies prises sans contraintes particulières pour tenter produire des « textures » représentant ce même matériau, mais sur une surface 3D quelconque et pour des conditions différentes d'éclairage virtuel.
 +
-->
  
===Perspectives===
+
{{PAGE_End}}

Version actuelle datée du 9 juin 2016 à 14:12

Retour à l'accueil

Contexte

La création de mondes virtuels 3D trouve des applications dans des domaines variés, aussi bien technologiques comme des simulateurs 3D, du prototypage virtuel pour l’aide à la prise de décision, des catalogues et archives 3D, etc., qu’artistiques avec par exemple la création de média à des fins ludiques ou éducatives. Ces mondes deviennent de plus en plus volumineux et de plus en plus riches en détails, permettant ainsi des rendus d’images de synthèse difficiles à distinguer de la réalité. Une plus grande richesse visuelle est obtenue par une définition précise d'objets, en termes de forme et mouvement, et par un habillage sophistiqué de ces modèles 3D pour leur donner des apparences réalistes. Les techniques d'acquisition de la forme et du mouvement à partir de scanners 3D ont permis d'augmenter considérablement la qualité et quantité de modèles produits, mais il reste d'importantes limites, notamment en lien avec la taille des modèles et lorsque l'on souhaite transposer les mouvements acquis sur un modèle particulier à un autre modèle.

Parallèlement, l'habillage, appelé « la texture » en informatique graphique, consiste à plaquer une image 2D sur l’objet 3D, comme un papier peint. Il permet d’ajouter des détails à petite échelle sur les surfaces : des veines pour du bois, des briques pour une façade ou des brins d’herbe pour une pelouse. Avec la définition croissante des dispositifs d’affichage, la création de textures très haute définition, c’est-à-dire dépassant les centaines de Mega-pixels, est devenue incontournable. Mais la création de textures de cette taille, avec des outils classiques d’édition, presque pixel par pixel, devient un processus fastidieux pour les infographistes, et donc coûteux à produire. Les techniques d'acquisition sont elles aussi limitées car elles contraignent fortement les conditions dans lesquelles un matériau peut être acquis : conditions d'éclairage spécifiques, accessibilité du matériau, etc.

Objectifs / Challenges

Notre premier challenge est de mettre au point des méthodes d'analyse et de segmentation des données produites par les scanners, pour faciliter d'une part la création de modèles 3D, et d'autre part pour des applications de construction d'atlas statistiques. Notre second challenge est de développer des outils permettant de produire automatiquement des textures "par l'exemple", c'est-à-dire à partir d'échantillons de textures extraits d'images. Pour cela il est nécessaire de se doter d'outils d'analyse adaptés, permettant de classifier les textures et de les extraire à différentes échelles. Nous souhaitons aussi représenter les matériaux d'objets numérisés à l'aide de textures, générées à partir d'un ensemble de photographies prises avec peu de contraintes, et pouvant être utilisées pour habiller des modèles 3D quelconques et être visualisées de façon réaliste dans différentes conditions d'éclairage virtuel.

Participants permanents

  • Un professeur : Jean-Michel Dischler
  • Une chargée de recherche : Hyewon Seo
  • Cinq maîtres de conférences : Rémi Allègre, Karim Chibout, Frédéric Cordier, Arash Habibi, Basile Sauvage
  • Trois ingénieurs de recherche : Frédéric Larue (2011-), Olivier Génevaux (2011-2015), Sylvain Thery (2015-)
  • 5 Doctorants : Geoffrey Guingo (CDD à partir du 1/10/2015 ERC Marie-Paule CANI et contrat Allegorithmic), Guoliang Luo (Contrat Projet SHARED du 10/2011 au 12/2014 (Thèse soutenue le 04/11/2014)), Vasyl Mykhalchuk (Contrat Projet SHARED du 11/2011 au 04/2015 (Thèse soutenue le 09/04/2015)), Alexandre Ribard (Allocataire UNISTRA du 1/11/2015 au 30/04/2016), Kenneth Vanhoey (Allocataire UNISTRA du 10/2010 au 09/2013 (Thèse soutenue le 18/02/2014)).

Résultats

Analyse des formes, recalage, et segmentation de données dynamiques

Grâce au développement récent des technologies d’imagerie, nous avons accès aux données de formes et de déformations de la peau ou des organes des humains en utilisant soit un système optique de capture de mouvements ou soit un scanner pour l’imagerie médicale. Par rapport aux méthodes existantes qui sont essentiellement basées sur l’analyse des formes statiques [2-MCS13], nous avons développé de nouvelles méthodes pour l’analyse de la forme qui permettent d’exploiter les données de mouvements [2-SKCC13]. Ces méthodes sont les premières qui répondent aux problèmes de segmentation [4-LSC14, 4-LLS15], d’extraction de points caractéristiques [4-MSC14, 2-MSC15], de calcul de similarité [4-LCS14, 8-Luog14, 2-LCS16] et de mise en correspondance [8-Mykh15] sur les données dynamiques.

[2-MSC15] Illustration de l'extraction de points caractéristiques détectés à l'aide de notre technique AniM-DoG sur différentes poses de maillages animés. La couleur d'une sphère représente l'échelle temporelle (du bleu au rouge) des points caractéristiques, tandis que son rayon indique l'échelle spatiale.
Etant donné un couple de maillages animés présentant des mouvements similaires sémantiquement, nous calculons un ensemble peu dense de points caractéristiques sur chaque maillage, ainsi que les correspondances spatiales entre eux de façon à ce que des points ayant des mouvements similaires soient mis en correspondance.
Reconstruction de l'apparence

Les fonctions paramétriques 2D de couleur sont très utilisées en rendu basé image ou en ré-éclairage d'images. Ces fonctions permettent d'exprimer la couleur d'un point en fonction d'un paramètre directionnel continu : la direction de vue ou la direction d'éclairage incident. Produire de telles fonctions à partir de données acquises (photographies) est une approche prometteuse mais difficile. Acquérir des données de façon dense et uniforme n'est pas toujours possible. Les données sont en général peu denses, distribuées de façon non uniformes et bruitées. Pour pallier à ces difficultés, nous avons proposé une méthode de reconstruction de fonctions de radiance pour des objets numérisés, à partir de photographies [2-VSGL13]. Notre méthode permet de visualiser les objets de façon réaliste dans leurs environnements lumineux originaux. Nous avons aussi développé une méthode de simplification de maillages auxquels sont attachées des fonctions de radiance [2-VSKL15], permettant d'obtenir des modèles d'objets numérisés avec géométrie et apparence particulièrement compacts.

[2-VSGL13] Partant d'un ensemble de photos prises à main levée, une représentation virtuelle de l'apparence d'un objet est reconstruite. Cette apparence encode entre autres les effets spéculaires.
[2-VSKL15] Des objets 3D virtuels avec leur apparence sont simplifiés : il s'agit de les alléger en minimisant la perte de qualité visuelle.
Modélisation et synthèse de textures

Les textures sont cruciales pour le réalisme des mondes virtuels 3D. Afin d'alléger le travail des artistes qui doivent dessiner des mondes gigantesques, nous avons développé des méthodes permettant de générer automatiquement des textures haute résolution à partir d'une image d'entrée unique, avec contrôle de la préservation des motifs, du caractère aléatoire de leur distribution, et de la variété du contenu de la texture générée [2-GDG12, 2-GDG12a, 2-VSLD13, 2-GSVD14]. En complément, dans le cadre d'une collaboration avec l'Université de Yale, nous nous sommes intéressés à l'analyse de texture [2-LSAD16] afin d'améliorer le contrôle des algorithmes de synthèse. On remarquera en particulier trois publications [2-VSLD13, 2-GSVD14,2-LSAD16] dans ACM Transactions on Graphics, considérée comme la revue la plus réputée en informatique graphique. Les contributions en matière de synthèse de textures ont permis à Jean-Michel Dischler d'être invité au séminaire Real-World Visual Computing au Leibniz-Zentrum für Informatik (Schloss Dagstuhl) en octobre 2013.

[2-VSLD13] Des textures sont synthétisées à la volée sur GPU, à partir d'échantillons d'exemples à plusieurs échelles.
[2-GSVD14] Des textures sont synthétisées à la volée sur GPU, grâce à une analyse spectrale.
[2-LSAD16] Des cartes de labels multi-échelles sont obtenues à l'aide de notre méthode d'analyse de textures. Une application possible est l'édition interactive de textures.

Perspectives

Comme mentionné plus haut, les progrès des technologies d'acquisition de la forme, du mouvement et de l'apparence ont conduit à une augmentation considérable de la qualité et de la quantité de modèles 3D produits. Un des principaux défis futurs pour les applications en informatique graphique est d'améliorer l'exploitation de ces données afin de produire : 1) des modèles 3D de meilleure qualité avec moins d'interventions de l'utilisateur, et 2) des contenus plus facilement contrôlables, qui ne soient pas seulement des copies numériques des objets numérisés. Les progrès des technologies d'acquisition ne sont pas suffisants : le cœur des recherches futures est la mise au point des méthodes de traitement de données 3D permettant d'améliorer la production de contenus 3D à partir des données acquises. Dans ce contexte, des outils d'analyse spécialisés, ainsi que des techniques permettant de les évaluer de façon objective, manquent. Nos travaux futurs aborderont ce défi central.

Dans le domaine de la capture de mouvement, notre objectif est de 1) valider des méthodes de calcul pour l'extraction des zones de saillance, 2) développer une technique de prédiction des mouvements oculaires, et 3) mettre au point des méthodes efficaces permettant de construire la vérité terrain pour des zones de saillance spatio-temporelles. En s'appuyant sur ces méthodes, nous nous intéresserons au développement d'un modèle statistique (ou atlas) fondé sur des représentations compactes de données 4D très redondantes. Dans le domaine des textures, notre objectif futur est de permettre la visualisation de modèles 3D avec apparence dans des environnements lumineux arbitraires, ce qui nécessite des outils d'analyse plus sophistiqués pour extraire les propriétés intrinsèques des matériaux et les classifier. En plus d'améliorer la qualité de l'apparence, l'analyse des données d'entrée nous permettra également de produire des textures de contenus plus facilement contrôlables, comme des textures avec variations spatiales qui dépendent de la position dans la texture et de la position sur la surface d'un modèle 3D.