Une image avec une profondeur de 8 bits, c'est 256 nuances. En codage RVB c'est donc le classique "True colors" de 16 millions de couleurs (256 x 256 x 256).
Une image 12 bits, c'est 4.096 nuances, donc 68 milliards de couleurs.
En 14 bits on peut coder 16.384 nuances (4000 milliards de couleurs).
Ca, c'est pour l'information contenue dans le fichier informatique.
Ensuite, il faut voir cette information.
Les écrans bas de gamme plafonnent à 6 bits, 64 nuances par couleur, ou à 6 bits améliorés par lissage
Les écrans standard passent 8 bits, 16 millions de couleurs : chacune des photodiodes R, V et B, composant un pixel-écran est théoriquement capable de varier sa puissance sur 256 niveaux.
Les écrans graphiques haut de gamme à large gamut codent en 10 bits (ne pas confondre avec la LUT - lookup table -, souvent en 14 bits sur ces écrans), soit 1024 niveaux pour chaque photodiode.
L'oeil humain performant sait distinguer environ 8 millions de couleurs et, s'il est fatigué, guère plus de 2 millions.
Les meilleures imprimantes sont bien en deçà de ces performances.
Conclusion 1 : il n'y a strictement aucune chance pour voir une différence entre une image 12 bits et une image 14 bits, que ce soit à l'écran ou sur tirage papier.
Conclusion 2 : En 12 ou 14 bits, on conserve - informatiquement - infiniment plus de nuances de couleur. C'est utile dans les très hautes et les très basses lumières lorsqu'il faut les rattraper, ou lors de retouches sévères, qui vont supprimer de l'information : il en restera toujours plus en partant d'un fichier 12 ou 14 bits qu'avec un fichier 8 bits. C'est l'un des avantages du raw (12 ou 14 bits), par rapport au jpeg (limité à 8 bits).
Conclusion 3 : Pour le choix entre 12 et 14 bits, le raisonnement est le même, mais on est sur des nuances si fines que ça dépasse largement mes capacités visuelles personnelles.