Qu’est ce que la SD et la HD ?

La SD (Standard Definition) était la taille standard utilisée au siècle dernier, et toujours utilisé aujourd’hui. Les images PAL et NTSC respectivement de taille 720x576 et 720x480 sont des images SD. Elles peuvent avoir un aspect 4:3 ou 16:9.

La HD (High Definition) est la taille standard utilisée aujourd’hui toujours en aspect 16:9. Mais il y a plusieurs dimensions HD :
  • 1920x1080 : appelé full HD, avec des pixels carrés
  • 1440x1080 : un HD avec des pixels rectangulaires
  • 1280x720 : plus petit que le full HD, mais plus grand la SD, souvent utilisé pour le web

Autant en SD il y avait le PAL et le NTSC pour définir rapidement un format, autant en HD, de par la quantité de combinaison de format possible, il était compliqué de donner un petit nom à chaque format. On utilise donc un ensemble de caractères et de chiffre pour le définir :
La largeur du format, i ou p pour interlaced (entrelacé) ou progressive (progressif), et la fréquence d’image/trame.

  • 1080p25 : Video de 1920x1080 en progressif à 25 images par secondes
  • 1080i50 : Video de 1920x1080 en entrelacé à 50 trames par secondes
  • 720p25 : Video de 1280x720 en progressif à 25 images par secondes
  • 720i60 : Video de 1280x720 en entrelacé à 60 trames par secondes

Qu’est ce que le PAL et le NTSC ?

Le PAL et le NTSC sont des standards de la télévision. Il définissent un format video par sa taille, sa fréquence d’image, etc. Comme il n’y avait pas beaucoup de format à l’époque, c’était simple de parler de PAL ou NTSC.

Le PAL, c’est :
  • Un format SD utilisé en Europe
  • Une image de 720x576
  • Une fréquence d’image de 25 images par seconde
  • Des pixels pas carrés (la largeur d’un pixel = 1.07 x la hauteur)

Le NTSC, c’est :

  • Un format SD utilisé aux USA et Japon
  • Une image de 720x480
  • Une fréquence d’image de 29,97 ou 30 images par seconde
  • Des pixels par carrés (la largeur d’un pixel = 0.9 x la hauteur)

Qu’est ce que le Time Code ?


Le time code est la mesure du temps sur un vidéo. Il est divisé en heure, minute, seconde et image. (pas en trame). Il est représenté en 4 séries de 2 chiffres : HH:MM:SS:II. Un convention fait qu’un programme commence souvent à 10:00:00:00.

Qu’est ce que l’entrelacé et le progressif ?

Une image vidéo est composée de plusieurs lignes de pixels ou point lumineux. Pour améliorer le phénomène de la persistance rétinienne, plutôt que d’enregistrer ou lire une image entière par 1/25 seconde ou 1/30 seconde, on coupe une image en deux trames. La première contient les trames impaires (ligne 1,3,5,7,9, etc) et la seconde les trames paires (2,4,6,8, etc). On ne va plus avoir 25 images par seconde, mais 50 trames par seconde (ou 50 demi images par seconde). Avec une définition deux fois moins bonne, certes, mais l’oeil, sur les anciens téléviseurs en tout cas, est plus a l’aise ainsi.
Dans quel ordre ? Ce peut être la trame impaire qui soit affichée en premier sur les deux, on dit qu’on est alors en trame impaire, ou trame supérieure, ou encore Upper Field. L’autre méthode est donc d’afficher la trame paire en premier, autrement appelée trame inférieure ou Lower Field.
Ce n’est généralement pas à l’utilisateur de choisir son ordre de trame préféré, c’est le codec qui impose cet ordre. On peut résumer en disant que pour tout ce qui est DV, HDV, DVCam, on est en trame inférieure, et tout le reste, en supérieur.

Le progressif, c’est travailler la vidéo sans entrelacement, ou les images sont donc traitées en entier, pas de trames. Le cinéma, contrairement à la télévision, n’a jamais travaillé en entrelacé, mais toujours en progressif. En vidéo donc, quand on tourne en progressif, on entend souvent qu’on veut donner un effet film ou cinéma.

Sur un ordinateur, les images sont toujours affichées en progressif, et diffuser une vidéo entrelacée sur un moniteur progressif peut faire apparaître des lignes dues à l’entrelacement. On créé ce que l’on appelle des artefacts, et ils sont particulièrement visibles sur des mouvements. Il est donc préférable de désentrelacer une vidéo avant sont envoi vers le monde de l’informatique.

Il existe différentes méthodes de désentrelacement qui ne donnent pas toutes le même résultat :

  • On peut mélanger les deux trames en ajoutant un léger flou pour enlver les artefacts
  • On peut ne prendre qu’une trame et la doubler à la place de l’autre
  • On peut n’utiliser qu’une trame et faire une moyenne entre deux ligne pour recréer la manquante
  • On peut utiliser des calculs complexes pour anticiper les mouvements dans l’image et la reconstituer

Qu’est ce que la fréquence d’image ?

La fréquence d’image nous indique le nombre d’image à afficher par seconde pour l’enregistrement et la lecture d’une vidéo.
  • En Europe, on utilise 25 images par secondes
  • Aux USA et au Japon, on utilise 29,97 ou 30 images par seconde.
La différence des fréquences d’image est aussi un héritage technologique, en l’occurence, un héritage de la fréquence du courant électrique, 50Hz en Europe et 60Hz aux USA et au Japon.

Le passage d’une fréquence à une autre est complexe et peut créer un effet de flou ou de saccade sur la vidéo, car en passant de 25 à 30 images par secondes, on doit créer de nouvelles images, et dans l’autre sens, on doit en supprimer.

Qu’est ce que l’anamorphisme ?

L’anamorphisme est la déformation d’une image dans un certain format pour la faire tenir dans un autre format. Le cas le plus fréquent est celui d’une image 16:9 anamorphosée pour tenir dans un support 4:3.
Pourquoi ?
Parce que les moyens de stocker et diffuser une image on été conçus pour le 4:3, et, quand il a fallu pour des raisons esthétiques, passer au format 16:9, il était impossible de remplacer l’ensemble des équipements, tant pour la production que la diffusion, pour des raisons de coût et de temps de déploiement. On a donc décidé de toujours utiliser les mêmes technologies 4:3, mais de déformer l’image et de faire passer l’information, lors de la diffusion, si l’image était en 4:3 ou en 16:9, l’appareil de diffusion déformant automatiquement l’image en fonction.



A gauche, l’image est correctement affichée en 16:9, à droite, l’image anamorphosée dans un format 4:3

Qu’est ce que le format d’image ?

Le format d’image indique le rapport entre la hauteur et la largeur d’une image vidéo. On utilise le plus petit dénominateur on utilise principalementles termes 4:3, 16:9, voir le cours sur les fraction en cinquième.



Le mélange des formats d’image impose de pouvoir mettre une image 4:3 dans un format 16:9 et vice versa.
  • En mettant une image 4:3 dans un format 16:9, il faudra remplir l’image avec des bandes noires à droite et à gauche, on parle alors de format pillarbox.
  • En mettant une image 16:9 dans un format 4:3, il faudra remplir l’image avec des bandes noires en haut et en bas, on parle alors de letterbox
  • Il est possible également de zoomer dans l’image pour pouvoir remplir totalement le format, on parle alors de Pan & Scan. Le Pan & Scan peut être statique (le zoom se fait toujours sur la même partie de l’image) ou dynamique (le zoom est différent sur chacun des plans en fonction de la partie la plus utile de l’image. Ce n’est plus seulement une opération technique mais également éditoriale)

Qu’est ce qu’une image vidéo ?

Une image vidéo est une image fixe qui compose la vidéo. En numérique, elle est constituée de pixels et chaque pixel est un point coloré de l’image. Plus il y a de pixels, plus l’image est grande, et le nombre de pixels va définir la résolution de l’image, sa taille.


La taille de l’image est donc mesurée en nombre de pixel en hauteur et largeur, mais les pixels ne sont pas forcément des pixel de forme carré (à cause de la technologie des premières TV analogique). On parle aussi de square pixels et de non-square pixels. Il ne faut pas le confondre avec le format d’affichage anamorphique pour le 16/9 (voir plus loin). Les derniers formats sont maintenant presque tous en pixels carré.


A gauche, des pixels carrés, à droite, des pixels rectangulaires

Qu’est ce qu’un Codec ?

Codec est le raccourci pour dire COdeur DECodeur. C’est la méthode avec laquelle le fichier est encodé lorsqu’on l’enregistre et décodé lorsqu’il est lu. Il est essentiel d’encoder la vidéo pour la compresser en taille car une vidéo non compressée utiliserait trop d’espace.

La compression ne signifie pas forcément “perte de qualité” contrairement à ce que l’on peut parfois imaginer, un peut comme lorsque l’on “zip” des fichiers. Ainsi, la même vidéo peut être 4x moins volumineuse entre sa version non compressée et sa version compressé dans un bon format. On parle alors de compression “sans perte” (lossless).

  • On utilise donc parfois le terme de “compression” à la place de “codec”.
  • Transcoder est le fait de passer une vidéo d’un codec à un autre.
  • C’est principalement le codec qui dans le format va indiquer l’utilisation d’un fichier.
  • Certains codec ont des options de réglage, d’autres non.

Quelques exemples de Codec :

Codec
Sans Perte
Utilisation
DV-PAL
Non
Tournage, Montage
HDV
Non
Tournage, Montage
H264
Non
Visionnage, Diffusion
MPEG-2
Non
DVD
Animation
Oui
Travail haute précision vidéo (incrustions, étalonnage)
ProRes 4444
Oui
Travail haute précision vidéo (incrustions, étalonnage)
ProRes 422 HQ
Oui
Montage, Conservation Master

Qu’est ce qu’un format vidéo ?

Un format vidéo définit la manière dans laquelle la vidéo est enregistrée et stockée. Il est défini par :
  • Un codec
  • Une fréquence d’image
  • Une taille d’image
  • Un format d’affichage (ou aspect ratio)
  • Une méthode de scan

Tous les formats ne vont pas avoir la même utilité, chacun à ses spécificités pour une utilisation bien particulière. Ils peuvent être :
  • légers pour être facilement distribuables par le web
  • lourd pour garder un maximum de qualité pour le montage, l’étalonnage, etc
  • entre les deux pour un compromis, sachant qu’il faudra finir par choisir entre le poids et la qualité.

Il y a de nombreux formats de fichiers, car les utilisations qui en sont faites ne sont pas les mêmes et parce que l’évolution de la technologie apporte des techniques de plus en plus efficaces, mais aussi parce que les acteurs du marché (fabriquant de caméra, de logiciel de montage, de logiciel de diffusion, etc) ont chacun voulu développer leurs formats. Il y a donc des formats qui ont la même fonction, la même qualité, mais ne portent pas le même nom.

Qu’est ce que la vidéo ?

La vidéo, est une succession d’images qui, lus les unes après les autres, donnent l’illusion de mouvement.
Le montage consiste à couper et assembler des vidéos dans une timeline.