Nikon Passion : Communauté Photo
Choisir votre matériel Photo => Nikon reflex - bridges - compacts => Discussion démarrée par: Valken le 12 Fév, 2008, 16:24:39 pm
-
Salut à toutes et à tous.
Juste une chitte question...
Si mes souvenirs sont exacts, le D200 ainsi que le D80 et sûrement d'autres ont une profondeur de 12 bits alors que les nouveaux modèles ont une profondeur de 14 bits. Par fondamentale donc. :P
Je traite donc mes photos en 16 bits sous photoshop pour garder le plus de dynamique possible.
Ensuite, quand on ammène nos photo sur une tireuse Fuji, le logiciel interne de la Fuji demande du 8bits par fondamentale. Je comprends le gain de faire une photo avec beaucoup de dynamique mais comment le passage au 8 bits va-t-il opérer pour donner un rendu optimal ?
Peut-être que mon tireur a une vieille machine qui est encore en 3* 8 bits mais je me doute que la majorité des tireurs ne vont pas suivre les révolutions technologiques à chaque coup. Car je me doute que le D4 sera en 16bits, le D5 en 20 et le D6 en 24 bits ... etc. etc.
Est-ce moi qui comprends mal ou y-a-t-il réellement une faiblesse dans la chaîne de production ?
Valken
-
Visuellement, on ne perçoit aucune différence entre une image 12 bit ou une image 8 bit... L'avantage d'avoir du 12bits est pour la retouche uniquement. En effet, beaucoup de manipulations numériques altèrent les couleurs, et même réduisent les couleurs. Par exemple, si une image 12 bits est sous exposée, on peut étirer son histogramme pour réhausser les niveaux. Cela revient à dire qu'on multiplie toutes les valeurs par un certain epsilon qui va avoir pour effet d'augmenter les valeurs (*1.05). Tout ça pour dire que cette opération a entrainé une perte des informations dans les pixels dont le résultat de la multiplication dépasse une valeur représentée sur 12 bits !
Bon, l'idée est la suivante :
puisqu'on va perdre de l'information en retouchant les photos, arangeons-nous pour en avoir un peu trop dès le départ !
puisqu'au final, on sait que notre produit sera en 8 bit, si on était partit avec du 8 bit, on finirait avec du 5 bit (par exemple). Et là la différence visuelle sera très importante. Cela se traduira par exemple, par des effets de paliers dans les dégradés !
J'espère que j'ai un peu éclairé la lanterne.
EDIT : oui, bon, j'ai oublié de préciser que ce message se veut très vulgarisateur, je suis pleinement conscient que ce que je dis n'est pas rigoureux. J'essaye juste de faire passer l'idée...
RE-EDIT : je dois arrêter le café moi, j'ai l'impression de répondre à côté de la plaque. Finalement, c'était pas la question posée, et voilà que je fais un cours inutile :)
Donc, je répondrais que je ne perçois pas ça comme une faille dans la chaine, puisque 8 bits ou 16 bits, à l'impression, la différence sera invisible de toute façon (trop de nuances couleurs pour l'oeil humain).
-
Je comprends parfaitement ce que vous voulez dire.
Ayant aussi pas mal travaillé dans le domaine de l'audio, il allait de soit que travailler avec des résolutions élevées était uniquement utile pour la retouche, après quoi, on passait tout ça sur CD et là... c'était du 44.1khz.
Maintenant, c'est un peu plus délicat mais l'idée reste la même.
Le client final, moi en l'occurence, ne percevra pas énormément de différence sur ma photo finale mais par contre, j'aurai plus de latitude pour la remanier à mon gré.
Cordialement
Valken
-
jfd a mis dans le mil
Le format jpeg, ne peut par exemple enregistrer qu'en 8bits. C'est un format final, mais pas dédié à la retouche.
Un photosite (rouge ou vert ou bleu) peut différentier 2^8 à 2^16 valeurs, mais ce sont alors des nuances invisibles. Cela sert quand on modifie fortement l'exposition, les courbes, le contraste: le but est d'éviter les aplats par exemple.
Ceci dit 12bits sont quasiment toujours suffisant, 14 rarement utiles, et 16 à la limite de l'inutile.
En sorti de dé-RAWtisation on peut enregistrer sur 8bits pour impression, ou en tiff 16 bits dans le but de modifier à nouveau par la suite (dans un autre logiciel, ou dans le futur)