Représentations efficaces de l'apparence sous-pixel

Sujet de thèse 2014-2017
Candidat:     Guillaume LOUBET
Encadrant:   Fabrice NEYRET    ( HDR, DR CNRS,    Maverick - LJK / INRIA )


Les domaines du graphique temps-réel comme du rendu off-line butent sévèrement sur le mur de la complexité quantitative: Les mondes trop vastes et détaillés non seulement n'entrent plus dans les machines (leur poids s'accroît beaucoup plus vite que la loi de Moore), mais en plus finissent par engendrer une moindre qualité visuelle (car traiter exhaustivement tout ce qui se projette dans chaque pixel pendant chaque intervalle de temps n'est pas raisonnable), alors même que seule une infime portion de l'information apparaîtra au final a l'écran.
Il faudrait être capable de pré-filtrer les données. Le problème est que les hypothèses historiques du graphique sont aujourd'hui à peu près toutes caduques (les détails sont sous-pixel, les propriétés sont corrélées, les phénomènes optiques considérés sont complexes, et les exigences de qualité bien plus grande qu'aux temps héroïques, bref rien n'est linéaire ni séparable ni homogène), mais que le domaine n'arrive guère à dépasser ce paradigme, et se trouve coincé entre surcoût de multi-sampling   et   artefacts visuels (aliasing et dérives lors du zoom).

Notre équipe s'attache à proposer des solutions à la fois efficaces et haute-qualité, et surtout, scalables, en concevant des représentations et algorithmes modélisant l'apparence émergeant à l'échelle du pixel des effets cumulés des détails à petite échelle. Le cône collectant les contributions d'un pixel traverse la scène à une résolution volumique égale à son diamètre, il s'agit donc de savoir décrire le comportement optique de la matière à l'échelle d'un élément de volume rencontré, sans différence perceptible avec l'image à meilleure résolution qu'on obtiendrait lors d'un zoom.

Nos travaux précédents sur le sujet ont concerné soit des "matériaux volumiques" extrêmement typés, comme les arbres ou les vagues, soit des matériaux très génériques mais limité à la classe des champs de hauteur sur objets opaques, soit à l'environnement de cone-tracing volumique scalable (GigaVoxels) mais ne gérant pas le filtrage lui-même.
Il s'agit maintenant de s'attaquer au coeur du sujet: le filtrage de l'apparence volumique, au moins pour quelques classes de matériaux bien choisies, permettant d'enfin pouvoir préfiltrer les scènes du domaine graphique, dans des situations de complexité croissante (ne serait-ce qu'en terme d'échelle de filtrage, du proche à l'ultime), permettant de faire sauter progressivement le verrou technologique.

On privilégiera deux approches - nullement incompatibles - : la dérivation de méthodes de filtrage de l'apparence de données 3D existantes (explicites ou statistiques), via l'introduction de descripteurs et d'hypothèses avec un bon compromis tractabilité/généralité, et la conception de modèles descriptifs de distribution volumique se prêtant par construction mieux au filtrage, voire permettant d'adopter un procédé de modélisation top-down alternatif aux procédés actuels (maillages et fonctions procédurales).
Même si le coeur de recherche n'est pas le transfert radiatif, dans les deux cas le critère de qualité est l'apparence en espace image, en tenant compte de la visibilité, de l'ombrage, et des propriétés optiques élémentaires (réflectance, couleur, voire texture).
Même si le temps-réel n'est pas le seul débouché et si l'animation est hors cadre, on s'appliquera à préserver la compatibilité des représentations et algorithmes aux contextes temps-réel et animés.

Côté applications et collaborations, notre ANR Galaxy/VeRTIGE sur l'exploration réaliste de galaxie (avec RSA Cosmos et l'Observatoire de Meudon), et Weta Digital avec qui nous collaborons sur ces sujets, sont directement intéressées, cependant le sujet s'attaque à un problème de fond pour lequel il est important de proposer des pistes d'applicabilité large.

--
Fabrice