Je suis d'accord avec ton message
Cependant, il y a pas mal de changements coté diffusion aussi et un remplacement progressif vers des moniteurs et projecteurs numériques, qui peuvent faire du HDR, avec des contrastes de 1000:1 voir 3000:1 et pour lesquels le 4:4:0 8 bits REC709 est dépassé.
De nouveaux pipelines de décodage arrivent comme le HDR mais aussi ST2084 PQ dans les flux de productions.
J'ai la chance d'avoir une télé OLED LG qui a déjà ces standards et certaines nouvelles salles de cinémas aussi. Pour rappel le REC 709 c'était 4:1 en contraste pour les écrans cathodiques.
C'est du décodage dans le device de diffusion. EOTF-OETF
Le brevt a un impact sur le standard SMPTE ST-2110 pour du RAW over IP et contournement des vérouillages HDMI.
Rappel du brevet :
Le brevet introduit une technique permettant de mapper les données de pixels RAW dans la structure d'un signal HDMI conventionnel, comme YUV422 ou YUV444. Au lieu d'envoyer une vidéo traditionnelle avec traitement des couleurs, Nikon propose d'intégrer les valeurs RAW (par exemple, R, V, B) directement dans le flux de sortie. Imaginez un RAW déguisé, intégré à un pipeline initialement conçu pour la vidéo finale. Cela permettrait à un enregistreur externe d'extraire et de traiter l'intégralité du flux de données RAW, à condition qu'il en comprenne la structure. Pas de protocole propriétaire. Pas d'écosystème verrouillé. Juste du signal et des données.
On est pas à la fin des DRP de toute façon, les coûts des changements sont énormes. Seuls les Japonnais sont en pointe sur ces investissements.
Donc je suis d'accord, cela arrivera vraisemblablement en premier sur les moniteurs de contrôle dans la production.
Navrée si j'enfonce des portes ouvertes, mais quelques précision (c'est un peu mon métier aussi)
un signal RAW d'une caméra, n'est pas HDR

l'HDR, concrètement s'est juste avoir un écart de luminosité
à l'affichage de sorte que les zone lumineuse sont encore plus lumineuse, et les zone sombre encore plus sombre.
Cependant, le signal lui s'est tout autre. du RAW est là pour envoyer des tonnes de données dans une espace couleur extrêmement large, et avec une luminosité logarithmique, donc très désaturé et terne. une image brut de capteur est très peu lumineuse, extrêmement plate (bien plus que du rec.709), et pas du tout "belle" en soit.
l'HDR née après, lors de l'étalonnage, ou l'on vient ramener les valeurs à des niveau désirer. Et encore ! quasi tout les films et contenu que vous regardé en HDR suivent le même pipeline qu'en SDR, qui pour ainsi dire affiche la même chose, juste avec plus d'écart de luminance.
Et tu peu être sur que ce brevet ne traite pas le RAW en tant que tel, mais le sous-sample probablement vers un log 10bit avant de le transformé vers un rec.709 pour l'affiche, via une technique qui préserve mieux les nuances de l'image.
Le seul avantage s'est que l'HDR à été conçu dans de nouvelle normes qui améliore grandement la qualité de compression et d'encodage du signal étalonné, ainsi que d'autres normes qui permettent de meilleurs qualité d'image et de son, mais l'HDR dans l'histoire est presque minoritaire.
J'ai déjà discuter de ce sujet avec d'autres chef opérateur et réalisateur, le spectateur lambda, monsieur tout le monde s'en fiche royalement de savoir quelle technique d'image est utilisé en diffusion, il veut juste voire ce qu'il veut. Seul la minorité des passionnées donne de l'importance à cela.
Le son à plus d'importance que l'image à cette égard d'ailleurs.
les nouvelles normes rendent le processus de mastering entre la salle de cinéma et le home vidéo plus facile et plus proche l'une de l'autre, mais la salle de ciné reste au-dessus techniquement en tout point excepté un seul ; le seuil maximale de luminosité.
Je ne vais pas rentrée dans le détail, mais beaucoup de télé maintenant "triche", à cout d'algorithme et d'IA pour amélioré l'image ou trafiqué le signal pour que sa paraisse meilleur, mais ce n'est pas mieux que ce qu'on fait en ciné.
Si vous voulez une image correcte sur un moniteur pas besoin de raw, juste un log 10bit et une LUT et sa marche très bien. le RAW n'a d'intérêt si l'image est étolonner, avec des choix esthétiques fait par le chef opérateur et réalisateur, et de ce fait cela à surtout été conçu pour le cinéma en premier lieu.
En broadcast, fiction légère et télé un log 10bit suffi amplement pour couvrir les nouvelle normes.
Pour finir, et argument majeur ; le marketing, le consumérisme.
Tout ça s'est en grande partie pour justifier aussi les fonds et les milliards et milliards qui sont investis dans le secteur, dans une industrie qui est clairement sur le déclin. Les fabriquant désormais se fiche de savoir quel serait la meilleur option pour le consommateur, elle cherche juste à justifier ses dépenses et continuer à produire.
Il n'y à qu'a voir les salon type CES ou autres, c'est d'un ennuis et d'un manque d'objectivité consternant, c'est d'ailleurs aussi pour cela que j'ai un profond rejet pour le marché de la photo depuis près de 10 ans.
Bref, l'HDR c'est beau mais beaucoup trop surestimé. D'ailleurs beaucoup de film en HDR n'utilise pas toute les capacité du dit HDR, des scènes d'intérieur sans couleur pétante ou fenêtre qui éclate dans le champ ne dépasse même pas les limite du rec.709 ! Parce qu'il n'y aucun intérêt de le faire, autrement que de le faire sans trop savoir pourquoi.
La qualité de la compression et la clarté et grande dynamique sonore est bien plus importante que d'avoir un meilleur contraste d'image, et qui d'ailleurs n'a aucun sens sur un téléviseur avec une dalle brillante, dans un environnement qui peu être inadéquat en terme sonore et visuel (lumière parasite, réflexion, ou juste de jour

).
Bref, le visionnage s'est surtout une question de subjectivité au delà de l'aspect technique, et il n'y pas de réponse toute faites, autre que : Sa dépend.
D'ailleurs une télé FHD normale de 50" à une distance de visionnage plus de 3m (ce qui est le cas de beaucoup) en terme de résolution sa devient de la 4K, et pour le une télé 4K s'est encore pire, je n'ai plus les chiffre en tête, mais l'intérêt est encore plus réduit, pour ne pas dire ridicule par rapport à de la 8K, sauf si vous êtes à 1m devant, ce qui est, ridicule. Et qu'on ne commence même pas à parler de l'impact écologique de la 8K, qui est absurde, ont marche sur la tête.
Au passage, une image projeté de qualité sur une grande toile perforé, est une expérience bien plus agréable que de regarder un écran. (et au cinéma la plupart du temps s'est en 2K

) Allez au cinéma ! faites vivre cette magnifique industrie je vous en prie

Bref, tout ça pour dire que ok le RAW s'est cool, mais tout ceux qui ne travaille pas en cinéma ne l'utilise même pas, et s'en sorte très bien. C'est uniquement nous qui en avons besoin, car le cinéma est un art, et que le moindre détail compte, et c'est là que le raw est utile.