La 4K et le HDR pour les nuls

Introduction

Beaucoup de gens confondent la 4K et le HDR, mais ces deux caractéristiques d’une image n’ont rien à voir. En effet, la 4K est une définition alors que le HDR correspond à une dynamique d’image. Vous n’avez rien compris à ce que je viens d’écrire ? Ce n’est pas grave car je vais tout vous expliquer, le plus simplement du monde, de telle sorte que vous pourrez bientôt étaler votre science dans le domaine !

La 4K

Je vous le disais précédemment, la 4K est une définition c’est-à-dire un nombre de pixels. Pour être précis la 4K comporte 4096 pixels par ligne sur 2160 lignes, ce qui correspond à 8 847 360 pixels en tout, ou autrement dit environ 8.8 Méga pixels. Le « K » du terme « 4K » signifie 1000, donc 4K signifie 4000 car les lignes de la 4K comportent environ 4000 pixels.

La 4K est souvent confondue avec l’ultra HD, mais ce n’est pas tout à fait pareil. En effet, une image Ultra HD comporte seulement 3840 pixels par ligne au lieu de 4096 pour la 4K. En termes de nombre de pixels, l’Ultra HD est composée d’environ 8.3 Méga pixels, ce qui est donc légèrement moins que la 4K. Mais la plus grosse différence réside au niveau du format puisque l’Ultra HD est au format 16/9 (3840/2160 = 16/9) alors que la 4K est plus proche d’un rapport 17/9. La 4K n’est donc pas une définition grand public, par exemple les écrans de télévision sont au format 16/9, en toute rigueur on devrait donc plutôt parler d’une définition Ultra HD dans ce cas. Mais par soucis de simplification les deux termes ont été confondus.

Le HDR

L’acronyme HDR correspond à High Dynamic Range c’est-à-dire images à forte dynamique. La notion de dynamique suppose un plus grand écart entre la luminance des pics lumineux et celle du noir le plus profond par rapport au SDR (Standard Dynamic Range). Par exemple, pour un écran de télévision, l’industrie du cinéma et de la télévision préconise environ 120 nits pour les pics lumineux en SDR, alors qu’en HDR cela peut monter au dessus de 1000 nits, il y a donc presque un facteur 10 entre les deux ! Les images HDR sont donc beaucoup plus réalistes puisque dans la vie de tous les jours nous percevons régulièrement des luminances supérieures à 10 000 nits.

Mais pour mieux comprendre, il faut arriver à bien cerner ce qu’est une luminance. L’unité de cette dernière est le candela par mètre carré (cd/m²), lequel correspond au nit (1 cd/m² = 1 nit). Une candela est approximativement l’intensité lumineuse émise par une bougie, donc 1 cd/m² est la luminance obtenue si vous disposez une bougie par m². Pour revenir à l’exemple de l’écran de télévision, un pic lumineux de 120 cd/m² produit un peu la même luminance que si vous aviez disposé 120 bougies sur une surface de 1 m². Imaginez alors l’éclat correspondant à un pic lumineux de 1000 cd/m² en HDR ! Tout ce qui brille (éclairage, flamme, soleil, etc.) devient donc beaucoup plus réaliste grâce au HDR.

Qu’en est-il en vidéoprojection ? C’est moins spectaculaire que pour la télévision car dans ce cas nous n’avons plus affaire à un facteur 10, mais seulement de 2. En effet, la norme de luminance en SDR pour les pics lumineux n’est que de 48 cd/m², et passe à 100 cd/m² en HDR. L’écart est donc moins important, mais n’est pas sans intérêt.

Mais le HDR n’est pas qu’une question d’augmentation de luminance des pics lumineux, c’est en effet toute la répartition tonale qui change, l’idée étant de se rapprocher de la perception visuelle d’un humain dans sa vie au quotidien. Le HDR permet donc aussi en théorie une meilleure lisibilité des zones sombres.

Les choses seraient trop simples si nous nous arrêtions là, alors commençons à aborder le HDR dynamique. Il existe en effet en vidéo du HDR statique, avec par exemple le HDR10, mais aussi du HDR dynamique avec le Dolby Vision ou le HDR10+. De quoi s’agit-il ? Pour le HDR statique c’est la même fonction de transfert électro-optique* qui est utilisée tout le long de la vidéo, alors que pour le HDR dynamique celle-ci change à la volée en fonction des métadonnées contenues dans le fichier vidéo. Cela a pour conséquence une image encore plus réaliste, vous n’avez plus la sensation de regarder une vidéo mais de la vivre !

Il faut bien avoir conscience que le HDR n’est pas une mode, mais sera le standard de demain, à tel point que même les émissions de télévision seront diffusées en HDR ! Actuellement où trouve-t-on des contenus HDR ? Quasiment tous les Blu-ray Ultra HD/4K sont en HDR, mais vous en avez aussi pour certains jeux vidéos ou sur Netflix.

* Fonction de transfert électro-optique : conversion d’un signal électrique en signal optique par un diffuseur d’images (écran de télévision ou vidéoprojecteur)

Voici ci-dessous, quelques clichés tirés de Dolby.com, qui montrent des images comparatives entre HDR (à gauche) et SDR (à droite).

Conclusion

Vous l’avez maintenant compris, la 4K et le HDR sont deux caractéristiques bien différentes. Ainsi il est tout à fait possible d’avoir du HDR avec une image Full HD, c’est d’ailleurs ce que pensaient faire les dirigeants de Netfix à une époque pour diminuer le débit nécessaire, tout comme il est possible d’avoir du SDR avec une résolution Ultra HD.

Vous voilà maintenant prêt pour épater vos amis, vous n’aurez donc plus d’excuses de confondre la 4K et le HDR !

Cet article vous a plu ? Partagez-le avec vos amis !

Abonnez-vous à la lettre d’information. 

Recevez le meilleur de l’information home cinéma directement dans votre boîte mail toutes les deux semaines. Vous y trouverez les articles les plus récents (tests, guides, découvertes, etc.), les nouveautés de Home Cinéma Tendances ainsi que les tournées de calibrage prévues par Hervé Thiollier Consulting.

Herve-THIOLLIER

Cet article a été rédigé par Hervé Thiollier – Expert en cinéma privé – Calibreur vidéo – Revendeur de matériel audio et vidéo toutes marques.

Site web : ht-consulting.pro