I Principe de l'image de synthèse
 
 
 
 
  II Les utilisations
 
 
 
 
 
 
En  quoi l’utilisation de l’image de synthèse aujourd’hui, est elle une avancée technologique ?

 

I Principe de l'image de synthèse

   

    3) Rendu

            

                  a) Couleur               b) Texture                c) Éclairage

                  

Note : Nous avons crée une grande partie des images qui illustren la première partie de notre TPE grâce au logiciel Pov Ray

 

 

    Après avoir modélisé la scène et les objets de base il faut affiner et rendre plus réelle la qualité de l’image d’une part en attribuant aux objets des textures ainsi que des couleurs et en calculant d’autre part les effets d’une source de lumière dans cet environnement de synthèse

     En faite le rendu d'une image consiste à calculer celle-ci. C'est à cette étape que l'image ou l'animation prend toute sa dimension, les objets prennent leurs textures et l’on calcule la luminosité.

    C'est aussi à cette étape que l'on peut se rendre compte de la qualité du travail effectué.
 

 

a) Couleurs

 

    Il est nécessaire pour rendre un objet plus réaliste avant de lui appliquer une texture de lui attribuer une couleur. Ainsi nous allons utilisé le modèle RGB (Red Green Blue). C’est comme si on projetait une lumière sur un objet d’un projecteur possédant trois canaux, rouge, vert, et bleu. Ce sont les trois couleurs de bases à partir on peut recréer toutes les autres couleurs. Donc pour définir cette couleur on va attribuer à chaque canal une intensité pouvant varier de 0 à 255.  Par exemple, le noir est codé <0, 0, 0>, aucune lumière ne passant dans aucun canal et le blanc est codé <255, 255, 255>, la lumière blanche est composée de toutes les couleurs mais il faut que tous les canaux aient la même intensité. Et plus ces intensités seront forte plus le blanc sera parfait c’est pour cela que par définition on code le blanc < 255, 255, 255 > avec des valeurs inférieures on obtient différentes nuances de gris. Lorsque l'intensité est maximale dans un unique canal, la couleur est dite primaire. C'est le cas du Rouge, du Vert et du Bleu. Quand la lumière passe par deux canaux, c'est une couleur secondaire : le Cyan, le Magenta et le Jaune. Les couleurs obtenues par mélange du rouge, vert, et bleu sont rappelées par ces schémas.

 

                      

     Schémas représentant les trois canaux de couleur

    

Nous avons réalisées toutes ces images :

 

Le bleu codé : rgb < 0, 0, 1 >

 

 

 

Le vert codé  : rgb < 0, 1, 0 >

 

   

 

Le rouge codé : rgb < 1, 0, 0 >

 

Le noir codé  : rgb < 0, 0, 0 >

Voici maintenant les mélange de couleur afin d’obtenir de nouvelles couleurs :

Le blanc codé  : rgb < 1, 1, 1 >                                                      Le jaune codé  : rgb < 1, 1,  0 >

                                    

 

     Pov-Ray le logiciel que nous avons utilisé pour réaliser les images ci dessus comprend le RGB, mais le simplifie : l'intervalle d'intensité n'est pas compris entre 0 et 255, mais entre 0 et 1, 1 correspondant à l'intensité la plus élevée (c'est la notation utilisée ci-dessus). De plus, afin d'alléger le programme, il possède une gamme de plus de 120 couleurs "prédéfinies " dont une vingtaine de niveaux de gris. Il suffit de donner le nom de la couleur souhaitée et il peut l'appliquer ; cela évite de perdre du temps pour trouver la bonne couleur en variant l’intensité des trois canaux.   On peut ainsi définir la couleur de chaque objet ou de chaque facette dans notre image de synthèse. On définit l’objet puis on lui implique la couleur voulue ce qui est une étape vers l’aspect réaliste de l’objet.

     Mais pour approfondir cette intension réaliste il reste une étape qui est très importante dans le rendu de l’objet. Pour  donner à l’objet un aspect plus particulier, il faut lui appliquer une texture.

 retour en haut

 

b)texture

 

     Pour expliquer simplement, la texture que l’on applique à un objet c’est une image (en  2D) que l’on va coller sur chacun des polygones, afin que l’objet dans son ensemble ait un aspect spécifique comme la pierre, le bois…. Et c’est ici que la décomposition de l’objet en polygone va s’avérer efficace. Car comment pourrons nous coller cette image 2D sur une sphère parfaitement ronde! (Heureusement il existe des formes de projection spéciales pour traiter ces objets)

  Et oui il existe plusieurs cas de projection de textures : planaire (chaque face est un plan à part entière), sphérique, cubique, cylindrique... Lorsque l'image est petite, le motif est reproduit sur la face par translation.
     La couleur d'un point de la facette devient donc la couleur du pixel de la texture. L'objet peut alors être " recouvert " par une photo, ou avoir l'aspect du bois, du métal, de la pierre ou même du verre.

 

   En faite lorsque  l’on applique une texture sur une surface cela s’appelle le Mapping :

Ainsi Pour plaquer une texture sur un objet on utilise le mapping (on doit indiquer à l'ordinateur comment l'on veut que l'image s'enroule autour de notre objet. Il existe plusieurs types de mapping dont les principaux sont:

-Le mapping planaire: l'image est projetée selon un plan

-Le mapping cylindrique: l'image est enroulé autour d'un objet cylindriquement     

-Le mapping sphérique: on applique l'image en la projetant sphériquement

Autres types de mappinq :

   Le bump mapping, introduit par Blinn en 1978, est aussi appelé placage de relief. Il simule des perturbations sur une surface, créant ainsi l'illusion de creux et de bosses sans toucher à la structure géométrique des objets. C'est pourquoi les images utilisées pour le bump mapping sont   généralement en niveaux de gris.

 

 

 

   Chaque niveau de gris correspond un niveau de perturbation : les zones sombres seront en creux,    et les zones claires simuleront les bosses (par convention). On associe généralement la                texture mapping au bump mapping pour représenter des surfaces rugueuses (roches, murs, sols). réflexion et bump mapping

 

  On pourra aussi citer l’opacity mapping,  le shininess mapping, le specular mapping, le self-illumination mapping, le refraction et le reflection mapping

 

  Le réalisme d'un objet dépend donc particulièrement de sa texture, comme on peut le constater avec les effets spéciaux du cinéma ou dans les jeux vidéo.

 

   Mais  Pov-Ray possède  de nombreuses textures prédéfinies toujours dans le but de rendre la création d’une image de synthèse plus rapide ( par exemple pour le granite, on devra juste appliquer à l’objet « texture { granite } le logiciel Pov Ray reconnaîtra cette texture et l’appliquera directement à l’objet. Il existe donc différents types de bois, de métaux, de verres, de pierres, etc. ..., mais il est aussi possible de les modifier en définissant par exemple leurs indices de réfraction, de réflexion, leur transparence, etc.…

Une sphère qui a l’aspect d’une bille de métal

  

  Une sphère qui ressemble a une boule de granite

    

une sphère de texture « mat »

    

  Un cylindre et une sphère d’aspect translucide

   

Le réalisme d'un objet dépend donc particulièrement de sa texture, comme on peut le constater avec les effets spéciaux du cinéma, ou dans les jeux vidéo.

Voici des exemples dans le domaine des jeux vidéo :

                 

 

   Ainsi notre objet et l’aspect de l’image de synthèse paraissent déjà plus réels car ils ressemblent à des éléments et matières qui existent dans la vie réel. Mais il manque encore quelque choser car un objet peut toujours avoir une texture réaliste, dans un environnement neutre il ne sera pas mis en valeur. Cela nous amène à parler de l’éclairage que l’on peut créer dans une image de synthèse qui va être la touche finale du créateur.      

 

Schéma :

 

 retour en haut

c) éclairages

 

   Pour modéliser l’éclairage provenant de n’importe quelle source lumineuse dans un environnement de synthèse, on peut utiliser différents procédés :

 Modélisation de la lumière :

   Et oui sans lumière les couleurs et les textures d’un objet ne seront pas mis en valeur ce             dernier paraîtra noir. Ainsi nous allons étudier différents moyens qui permettent de synthétiser         cette lumière dans notre scène.

1) La lumière ambiante
 

   La lumière ambiante correspond au modèle le plus simple. On considère qu'il existe une source lumineuse présente partout et qui éclaire de manière égale dans toutes les directions. Chaque point de l'écran (pixel) reçoit une quantité E de lumière égale en tous points.

 

   Ce modèle de lumière correspond au niveau minimum d'éclairage qui sera appliqué sur les objets. En terme physique cela correspond un peu au soleil réfléchi par tout l'environnement qui donne une sorte de lumière présente partout.

 

   Prenons un objet fait d'une matière unique si E reste constant sur la totalité de l'objet. Dans ce cas, l'objet apparaît d'une seule et même couleur. Ce modèle d'illumination ne met pas en valeur le volume d'un objet comme vous pouvez le voir sur la figure qui suit.

 

                                       
 

 

 

2) La réflexion diffuse

 

   Mais reproduire la lumière ambiante dans une scène ne donne pas un aspect réaliste il permet juste d’éclairer la scène car il ne prend pas en compte l’éclairement de chaque pixel de l’image selon sa position par rapport a la source de lumière. Une question se pose qui est de savoir comment un ordinateur s'y prend-il pour déterminer les points très éclairés, ceux qui le sont moins et ceux qui ne le sont pas du tout ?

 

   On prend comme hypothèse que la source de lumière est ponctuelle et qu'elle émet de manière constante dans toutes les directions de l'espace.

   Dans le modèle de réflexion diffuse, l'intensité en un point d'une surface dépend de l'angle formé entre le rayon de lumière qui touche le point de la surface et la normale à la surface. Plus l'angle formé entre le rayon de lumière et la normale au plan est faible, plus l'intensité lumineuse réfléchie visible par l'observateur est forte.

 

   Le principe physique qui se cache derrière ce modèle est simple. Notre source lumineuse émet une certaine énergie au mètre carré. Suivant l'incidence des rayons lumineux, cette énergie sera répartie sur une plus ou moins importante surface de l'objet. Si les rayons et la surface sont perpendiculaires, alors l'énergie lumineuse sera répartie sur la plus petite surface possible et donc l'énergie par unité de surface sera maximale (voir figure).

 

   

   La lumière émise en direction de l'observateur dépend donc de l'intensité de la source lumineuse E, de l'angle thêta formé par le rayon de lumière et la normale au plan et du coefficient de réflexion k (facteur qui change selon les propriétés de la texture, par exemple il va être plus grand sur une texture de verre que sur une texture de granite)de la lumière diffuse par la surface et la Couleur (x ; y)   correspond à l'intensité de la lumière résultant de la réflexion sur la surface. Ainsi le programme calcule l'intensité de la lumière pour chaque point de l'écran, en parcourant les pixels x (abscisse) et y (ordonné), soit l’aspect de la couleur et de la luminosité du point. On obtient la formule :

 

Couleur (x ; y) = k x E x cos (thêta)

   

Schéma :

 

   

Ce schéma illustre bien l’éclairage d’un point donné selon thêta l’angle qui est ici l’angle i

        


          On voit de plus sur ce schéma que plus i (donc thêta) est petit, plus il se rapproche de la normale plus l’éclairage va être fort. Au contraire plus l’angle se rapproche de 90 ° plus l’éclairage va être faible.

3) La réflexion spéculaire

   Le modèle de réflexion spéculaire se différencie du modèle de diffusion en faisant intervenir le point d'observation. Dans ce modèle les rayons de lumière sont réfléchis par symétrie par rapport à la normale à la surface.

 

    Mails la lumière diffuse ne permet pas  de donner un aspect très  réel a cet éclairage, pour se rapprocher de la réalité on peut utiliser les principes de l’éclairage spéculaire ou la différence a la précédente loi c’est que la position de l’observateur entre jeu dans le calcul de la luminosité. Nous allons expliquer ce nouveau principe:


La nouvelle formule s’écrit

Couleur (x ; y) = [k x >cos(i) +w x n >x cos(theta)] x E

   

 Par rapport à la formule de Lambert, on a rajouté la mesure de la lumière spéculaire qui dépend de l'angle thêta (qui n’est pas le même que tout a l’heure) fait par l'œil de l'observateur et l'objet et de deux coefficients w, qui dépend de l'angle i, et n, de la brillance de l'objet concerné.
     La lumière réfléchie est à son maximum quand l'angle avec la normale est égal à l'angle du rayon d'incidence. C'est à dire lorsque thêta = i. Plus s est grand et moins la lumière en ce point paraît forte.

 

 

                    

 

 

Pour l’étude d’une image de synthèse ce schéma est plus approprié pour comprendre ce phénomène :

 

 

 

4 ) Des sources multiples

     Dans une image de synthèse on peut aussi mettre plusieurs sources de lumière. Chaque source doit être prise en compte dans la couleur des pixels de l'écran. Il suffit donc d'additionner toutes les formules issues de chaque source de lumière plus la lumière ambiante. Ainsi pour une scène éclairée par un nombre l de sources, on aura la formule :

 

 

La seule différence avec la formule précédente est l'ajout de A, la valeur de la lumière ambiante égale en tous points.


On remarque les deux ombres  qui prouvent la présence de deux sources de lumière.

5 ) Les modèles d'ombrage

   

    Maintenant nous savons calculer l’intensité lumineuse en un point, nous allons voir les différents moyens de calculer l’intensité de la lumière par rapport à un polygone ce qui permet de simplifier le calcul de l’éclairage sur un objet de synthèse, mais de le rendre moins précis.

    Il existe plusieurs façons de procéder pour approximer la lumière en un point. On va voir les plus courantes. 

 

L'ombrage plat

   On commence par la méthode la plus simple. On calcule la lumière pour un seul point de la surface que l'on veut représenter et on utilise la même intensité pour toute la surface. Cette méthode à tendance à beaucoup faire ressortir les polygones qui représentent un objet.

L'ombrage de Gouraud

   Le principe de l'ombrage de Gouraud est de calculer l'intensité de la lumière pour les sommets du polygone et d'interpoler linéairement l'intensité des sommets pour déterminer l'intensité en un point de la face. L'interpolation linéaire se fait sur le polygone projeté.

   Cette technique d'ombrage ne permet pas de voir un point lumineux qui serait au centre d'une face par exemple car on ne calcule la lumière qu'aux sommets.

 

L'ombrage de Phong

  Découvert en 1973 L'ombrage de Phong est assez similaire à l'ombrage de Gouraud à la différence près que ce n'est pas l'intensité lumineuse des sommets que l'on interpole linéairement sur le polygone 3D mais ce sont les normales des sommets.

 

Le raytracing :

   Après avoir modéliser la scène, il faut calculer l'image ou l'animation correspondante. Pour ce faire, nous pouvons utiliser le rendu en raytracing. Ce type de rendu existe depuis de nombreuses années. C'est une méthode permettant d'obtenir des résultats très réalistes à condition de bien avoir paramétré sa scène.

   Connu en français sous le nom de "lancer de rayons", "tracé de rayons" ou encore "suivi de rayons", la raytracing est une technique de rendu d'images photo réalistes, dont les effets utilisent -autant         que possible- les propriétés optiques des lumières, objets et matériaux.

.

   On projette un rayon lumineux, appelé rayon primaire, partant de l'œil de l'observateur (ou caméra, appareil photo virtuels) et passant par chaque pixel de l'écran de manière à déterminer si ce rayon intercepte un objet de la scène. Deux cas sont alors possibles :
- Aucun objet n'intercepte le rayon, la couleur est celle du fond.
- Des objets interceptent le rayon, seul l'objet le plus proche de l'observateur est pris en compte, la teinte du pixel est calculée en fonction des caractéristiques de la texture (valeur diffuse, réfléchie et réfractée).

   Voyons maintenant quels sont les principes utilisés pour calculer les équations des droites permettant d'évaluer l'intensité lumineuse d'un point.

La diffusion  :
     

   Pour calculer l’intensité de la lumière pour chaque pixel on utilise les principes de la diffusion de la lumière, on va lancer des rayons, appelés rayons primaires, à partir de l'œil et qui passe par un pixel de l'écran

     Pour chaque rayon R (ici rayon rouge) lancé de l'œil, on calcule le premier objet F qu'il intercepte. Une fois ce premier objet trouvé, il faut déterminé la couleur du pixel à afficher. Celle-ci dépend du matériau de la face, sa texture, et bien sûr de l'éclairage. Donc il faut déterminer quelles sont les sources lumineuses qui éclairent le point P de l'objet rencontré par le rayon primaire. Mais pour savoir si ce point est éclairé, on trace un rayon provenant du point jusqu'à la source lumineuse et si ce rayon est intercepté par un objet (ici F3) alors il s’agira d’une zone d’ombre. Et le point P sera à l’ombre.

   Donc si ce rayon parvient à la source sans intercepter d'autre objet, alors la source contribue à l'éclairage du point P. Dans le cas contraire, un objet masque la source et engendre naturellement un effet d'ombre.

 

La réflexion :

   Quand un rayon lumineux rencontre une surface, celui-ci rebondit dessus. Une partie de la lumière est directement réfléchie par l'objet selon une trajectoire bien spécifique.
 

   En effet, si nous considérons la normale au point d'impact, l'angle que fait le rayon incident (celui qui arrive) avec cette normale est égal à l'angle entre le rayon réfléchi et la normale. 
Il est donc très facile de calculer les coordonnées de la droite représentant le rayon réfléchi. 
Néanmoins, ceci n'est plus vrai si l'objet n'est pas lisse. Dans ce cas, il faut tenir compte des aspérités de l'objet pour calculer la normale à celui-ci. 
De même, si l'on arrive sur un angle, le calcul de la normale est différent. On peut néanmoins faire une approximation car atteindre précisément un angle est assez rare.               

                                  

Application :

Pour résumer le rayon primaire est réfléchi en rayon secondaire et c’est l’objet qui réfléchi le rayon primaire qui va refléter l’objet que le rayon secondaire rencontre. Reprenons l’image de cette bille on s’aperçoit que l’objet (ici le sol) que le rayon secondaire (jaune) intercepte et refléter par la bille en métal.

 

                           

 

La réfraction :

 

Lorsqu'un objet est transparent par exemple, il y a de la lumière qui peut passer à travers. Donc la lumière qui vas arriver sur cet objet (rayon incident) va être réfractée (rayon réfracté) On applique a ce moment la les propriétés de diffraction de la lumière. Pour calculer  cette réfraction on utilise le principe de la loi de Descartes :    

                                     

 

   étant l'angle d'incidence du rayon,  l'angle de réfraction et n l’indice de réfraction des milieux traversés.

 

 

 

    En faite, la quantité de lumière pouvant arriver au point d'impact dépend de l'indice de transparence de l'objet. De plus, certains objets on des propriétés de diffraction de la lumière. Cela signifie, que la lumière ne passe pas en ligne droite à travers l'objet. Elle peut être légèrement déviée par celui-ci. Cela s'observe facilement avec l'eau : lorsqu'un objet est plongé dans l'eau, la position à laquelle on peut le voir n'est pas la position à laquelle il est. 

   Comme on peut le voir sur cette image de synthèse la lumière qui entre dans ces objets est réfracté et donc l’image du sol et dévié par rapport a la normal par le rayon réfracté qui pénètre dans l’objet :

                  

                           

Photo-Bilan, exemple de rendu avec l’application du raytracing:

 


 

    Mais le raytracing fait partie d’un des nombreux procédés utilisés pour synthétiser la lumière, il en existe de nombreux autres cependant c’est celui qui parait le plus efficace et qui comporte le moins de désavantage…

 

Conclusion :

 

  Ainsi nous avons expliquer toutes les étapes qui nous permettent de créer une image de synthèse,  et nous a donc permis de réaliser  cette image qui nous a demander plus d’expérience que les précédentes afin d’illustrer notre TPE :

 

 

   Après toutes ces étapes nous avons réussi à créer une image de synthèse ce qui nous permet  de comprendre le terme majeur de notre problématique, il reste maintenant à savoir dans quels domaines on utilise et on profite des avantages de cette technologique…

retour en haut