Visuellement, on ne perçoit aucune différence entre une image 12 bit ou une image 8 bit... L'avantage d'avoir du 12bits est pour la retouche uniquement. En effet, beaucoup de manipulations numériques altèrent les couleurs, et même réduisent les couleurs. Par exemple, si une image 12 bits est sous exposée, on peut étirer son histogramme pour réhausser les niveaux. Cela revient à dire qu'on multiplie toutes les valeurs par un certain epsilon qui va avoir pour effet d'augmenter les valeurs (*1.05). Tout ça pour dire que cette opération a entrainé une perte des informations dans les pixels dont le résultat de la multiplication dépasse une valeur représentée sur 12 bits !
Bon, l'idée est la suivante :
puisqu'on va perdre de l'information en retouchant les photos, arangeons-nous pour en avoir un peu trop dès le départ !
puisqu'au final, on sait que notre produit sera en 8 bit, si on était partit avec du 8 bit, on finirait avec du 5 bit (par exemple). Et là la différence visuelle sera très importante. Cela se traduira par exemple, par des effets de paliers dans les dégradés !
J'espère que j'ai un peu éclairé la lanterne.
EDIT : oui, bon, j'ai oublié de préciser que ce message se veut très vulgarisateur, je suis pleinement conscient que ce que je dis n'est pas rigoureux. J'essaye juste de faire passer l'idée...
RE-EDIT : je dois arrêter le café moi, j'ai l'impression de répondre à côté de la plaque. Finalement, c'était pas la question posée, et voilà que je fais un cours inutile

Donc, je répondrais que je ne perçois pas ça comme une faille dans la chaine, puisque 8 bits ou 16 bits, à l'impression, la différence sera invisible de toute façon (trop de nuances couleurs pour l'oeil humain).