Liste des figures

  1. Le ''GMan'' du jeu vidéo Half-Life. A gauche, le modèle originel (environ 500 polygones, 1999), à droite le nouveau modèle (environ 5000 polygones, 2004)
  2. Simplification géométrique ([Hop96])
  3. Réduction d'arête et séparation de sommets
  4. Simplification avec préservation de l'apparence ([COM98]).
  5. Objet 3D représenté sous forme d'un nuage de points (sous échantillonné pour les mettre en évidence)
  6. Illustration d'un effet de parallaxe : la désocclusion. L'image de référence utilisée pour afficher la scène selon un autre point de vue ne contient pas assez d'informations et des trous apparaissent dans l'image à l'endroit ou on devrait voir une partie de la scène.
  7. Les deux principaux types d'images de profondeur. A gauche : carte d'élévations. A droite : carte de profondeurs issue de la projection de la scène sur le plan de projection d'une caméra.
  8. Les principales techniques de rendu à base de carte d'élévation ([WWT+03]).
  9. Calcul de l'auto-ombrage dans le relief induit par une carte d'élévation selon Heidrich et al. [HS99]. Les points noirs correspondent aux vecteurs dont le rayon intersecte le relief, tandis que les autres points représentent les directions pour lesquelles la surface au point $ C$ est visible. L'ensemble des directions, contenues dans le cercle de rayon $ \overrightarrow {a}$ (la base de l'hémisphère des directions), sont partitionnées par une ellipse de rayons $ r_{1}$ et $ r_{2}$ contenant les directions pour lesquelles $ C$ est visible. Les points extérieurs à l'ellipse et contenus dans le cercle correspondent aux directions d'ombrage.
  10. Déplacement de surface dépendant du point de vue
  11. Définition d'une VDM ([WWT+03])
  12. Affichage par pixel de surface déplacée ([HEGD04]).
  13. Déplacement de surface basé image ([KS01])
  14. Déplacement de surface selon Schaufler ([SP99])
  15. Placage de texture en relief ([OBM00])
  16. Parallax Mapping
  17. Parallax mapping avec et sans décalage borné
  18. Placage d'environnement cubique
  19. Mélange d'images
  20. Pondérations utilisées dans [DTM96]
  21. Schémas de pondération de Pulli et al.
  22. View-Based Rendering.
  23. Horry et al. [HAA97]
  24. Décoret et al. [DDSD03]
  25. Yamazaki et al. [YSK+02]
  26. Imposteur. A gauche, l'objet original, à droite, l'imposteur.
  27. Imposteurs en couches ([Sch98])
  28. Imposteurs maillés de Sillion ([SDB97]).
  29. Principe de la rétroprojection de pixels
  30. 3D Image Warping
  31. Post-Rendering 3D Warping [MMB97]. Les zones noires des images correpondent aux trous dûs aux effets de parallaxe.
  32. Morphing [SD96]
  33. View morphing ([SD96])
  34. View Morphing de l'image $ I_{0}$ vers l'image $ I_{1}$. L'image intermédiaire $ I_{s}$ est créée par post-warping de l'image $ \hat{I_{s}}$ elle même obtenue par transfert linéaire entre les images $ \hat{I_{0}}$ et $ \hat{I_{1}}$.
  35. Images à multiples centres de projection [RB98]
  36. Multiple Viewpoint Rendering [Hal98]
  37. Une tranche de lumière (Light-Slab) (à gauche) et ses deux plans positionnés dans l'espace de la scène (à droite).
  38. Acquisition des échantillons d'images de référence pour la construction d'un light-slab.
  39. Images panoramiques.
  40. Répartition des points de vue sur la sphère.
  41. Calcul de la contribution des points de vue de référence
  42. Exemples d'images de référence obtenues avec notre méthode
  43. Référentiel des images de référence
  44. Mélange pondéré de couleurs de trois points de vue de référence.
  45. Placage de texture dépendant du point de vue. Les trois points de vue de références utilisés sont éloignés les uns des autres d'un angle supérieur à 45^&cir#circ;. La figure du centre montre les effets de ghosting qui apparaissent (principalement autour du visage).
  46. Interpolation de deux points de vue. A gauche, l'image de départ ($ t=0)$. A droite, l'image d'arrivée $ (t=1)$. A centre, le résultat de l'interpolation à $ t=0.5$.
  47. Artefacts visuels lors du mélange d'images
  48. Ghosting. (a) : les trois points de vue de référence. (b), (c) et (d) : résultat de l'interpolation de textures selon différents angles, avec éclairage fixé.
  49. Texture de normales
  50. Placage de texture avec interpolation des normales pour le calcul de l'éclairement. Le maillage simplifié utilisé est composé de 3000 faces.
  51. Principe de l'interpolation de points de vue : déplacement linéaire à l'écran des points de l'image $ p(u_{0,}v_{0})$ de l'image de départ, à la position $ (u_{1},v_{1})$ qu'il occupe selon le point de vue d'arrivée.
  52. Interpolation avec précalcul du déplacement. Ligne supérieure : évolution des points du premier point de vue. Ligne inférieure : évolution des points du second point de vue. Colonne de gauche (pt. vue de départ) : $ t\approx 0$ , colonne du milieu : $ t=0.5$ , colonne de droite (pt. vue d'arrivée) : $ t\approx 1$.
  53. Interpolation avec précalcul du déplacement. En haut, sans filtrage bilinéaire. En bas, avec filtrage bilinéaire de l'image.
  54. Interpolation avec calcul au vol du déplacement des points.
  55. Principe de l'interpolation.
  56. Détermination du meilleur point de vue.
  57. Interpolation avec calcul ''au vol'' du déplacement dans les parties de superposant des images de référence. De gauche à droite : $ t=0.0$, $ t=0.5$ et $ t=1.0$.
  58. Utilisation d'une boîte englobante pour résoudre le problème des points extérieurs à l'objet.
  59. Interpolation avec calcul ''au vol'' du déplacement. De gauche à droite : $ t=0.0$, $ t=0.5$ et $ t=1.0$.
  60. Problème dus à l'interpolation linéaire : dans les cas complexes, l'approximation par un segment de l'évolution des points est impossible. En haut, les points de la scène balayés par le rayon optique issu d'un pixel de la caméra virtuelle ; en bas les points calculés. Les points rouges correspondent à $ t=0$ et les points verts à $ t=1.$ Le modèle utilisé est le Dragon numérisé du Laboratoire d'Informatique Graphique de Stanford.
  61. Maillage régulier.
  62. Déplacement des sommets du maillage de l'image de départ vers la position qu'ils occupent à l'écran selon le second point de vue.
  63. Attribution d'une profondeur virtuelle aux points extérieurs du maillage.
  64. Partitionnement de l'image en un nombre fixé de niveaux de profondeurs servant à la subdivision du maillage.
  65. Problème de la subdivision d'arête.
  66. Application de la subdivision d'arêtes avec prise en compte des T-vertices (image (a)). Les images (c) et (d) correspondent à la subdivision appliquée à l'ensemble de l'image plutôt qu'au maillage régulier (b).
  67. Comparaison des deux algorithmes de subdivision. A gauche, la première version générant des T-vertices. A droite, la version corrigée.
  68. Comparaison ne notre méthode avec le placage de texture dépendant du point de vue.
  69. Remplacement d'une partie de la scène par un polygone texturé (un imposteur).
  70. Précalcul : acquisition des informations géométriques pour chaque point des faces de la boîte englobante par lancer de rayons.
  71. Précalcul : lancer d'un rayon par point, pour chaque direction $ d_{i}$ de l'hémisphère.
  72. Discrétisation de l'hémisphère des directions.
  73. Quantification des normales et des couleurs.
  74. Rendu : reconstruction de la texture point par point en fonction des hémisphères précalculés stockant les intersections des rayons.
  75. Résultat de la méthode appliquée à un modèle de tore, en rendu à ombrage plat. La définition de la texture (figure (c) et (d)) est de 128x128 texels, l'hémisphère est constitué de 256 directions quantifiées. Temps de précalcul de 8 mn environ. Rendu à 15 FPS.
  76. Résultat de la méthode avec une boîte englobante complète. La définition des texture est 64x64 texels. La résolution de l'hémisphère est 250 directions.
  77. Création du nuage de points par subdivision récursive des triangles du maillage complexe.
  78. Résultat de notre méthode de discrétisation appliquée à un tore à surface perturbée avec une carte d'élévation (par déplacement de surface) et à un maillage représentant un noeud torique.
  79. Calcul d'une texture directionnelle
  80. Variation de l'échantillonnage de la surface de la scène, avec des rayons issus de l'hémisphère des directions d'un texel de la boîte englobante.
  81. Répartition adaptée des directions sur l'hémisphère. La répartition de l'angle d'élévation est basée sur une portion de la fonction racine carrée et permet d'augmenter le nombre de directions aux angles rasants.
  82. Construction du repère
    local d'un point.
  83. BRDF par acquisition physique.
  84. Résultats pour une variation de l'éclairement (de haut en bas). Définition des textures : 128x128 ; 1742 directions ; QLS : 4.97 Mo ; Hémisphères de visibilité : 326.81 Mo. Colonnes de gauche à droite : Phong (20 FPS), BRDF de Satin (15 FPS), BRDF synthétique (15 FPS). Toutes les images emploient l'auto-ombrage.
  85. Méthode appliquée à un modèle composé de petits objets : le dirigeable, ligne du haut. Définition des textures : 64x64, Nb. directions : 4902, 50 FPS, pas de d'interpolation bilinéaire. Ligne du bas : résultat de la méthode appliquée au tore pour différentes définition de texture : 128$ ²$ (20 FPS), 64$ ²$ (50 FPS) et 32$ ²$(70 FPS) de gauche à droite.
  86. Modèles d'illuminations gérés par notre méthode. La définition des textures utilisées pour ces images est 128x128. Pour une qualité d'image maximale, nous avons positionné l'observateur à un pôle de l'hémisphère. De gauche à droite : Phong, Phong+placage d'environnement, BRDF satin, BRDF synthétique.
  87. Application de l'auto-ombrage par compression en harmoniques principaux de l'hémisphère d'ombrage. Images de gauche : rendu standard (Phong) 30 FPS. Images de droite : application de l'auto-ombrage, 20 FPS. Le segment blanc indique la direction de l'éclairage. Définition de texture 128$ ²$.
  88. Trajectoire de la caméra.
  89. Segmentation de la variation de profondeur d'un pixel de l'écran. Abscisses : abscisse curviligne de la caméra sur la trajectoire. Ordonnées : profondeur du pixel.
  90. Principe de la reconstruction de la surface.
  91. Disparités de profondeur.
  92. Origine des points utilisés pour reconstruitre les pixels de l'image.
  93. Résultats de l'interpolation.
  94. Comparaisons de la méthode avec différentes compressions.
  95. Application de la méthode au modèle Armadillo, compression sur 10 segments. Ligne du haut : interpolation à différentes position de la trajectoire. Ligne du bas : variation de la position de l'éclairage.
  96. Acquisition des points de vue de référence.
  97. Principe du placage de géométrie sur le modèle simplifié.
  98. Application de notre méthode d'interpolation de points de vue au modèle du Buddha, composé de 1.1 million de faces.
  99. A gauche, résultats de la méthode avec différents modèles simplifiés. A doite, application de la méthode au modèle de dragon. En bas à droite, vue détaillée de l'application de l'auto-ombrage.
  100. Améliorations. Plutôt que de reprojeter un à un les points affichés d'un triangle $ t$ du maillage simplifié (en gris) sur chaque point de vue de référence, nous pourrions obtenir ces points directement en pré-projetant $ t$ dans les images de référence.
  101. Echantillonnage d'un rayon optique $ \overrightarrow {R}$. $ P_{1}$ = le point que nous utilisons actuellement pour afficher $ P$. $ P'$ = le point réel de la surface du maillage complexe de base. L'idée est de converger vers $ P'$ par échantillonnage de $ \overrightarrow {R}$ à partir du point $ P$.
  102. Vertex Shader
  103. Pixel Shader
  104. Unité de rastérisation
  105. Hémisphère d'ombrage.



Porquet Damien 2005-03-02